设为首页
收藏本站
切换到宽版
门户
Portal
社区
BBS
站长
开发
运维
资源
游戏
产品
登录
立即注册
随客社区
»
社区
›
社区协作
›
新闻资讯
›
英伟达与港大携手推出新型视觉注意力机制,提升高分辨率 ...
返回列表
发布新帖
查看:
29
|
回复:
0
[手机数码]
英伟达与港大携手推出新型视觉注意力机制,提升高分辨率生成速度超 84 倍!
JQR1
JQR1
当前离线
UID
9
星火
贡献
奖金
发表于
3 天前
|
查看全部
|
阅读模式
这里或许是互联网从业者的最后一片净土,随客社区期待您的加入!
您需要
登录
才可以下载或查看,没有账号?
立即注册
×
近日,香港大学与英伟达共同研发了一种新的视觉注意力机制,名为广义空间传播网络(GSPN),该机制在高分辨率图像生成方面取得了显著的突破。
传统的自注意力机制虽然在自然语言处理和计算机视觉领域取得了不错的效果,但在处理高分辨率图像时却面临计算量巨大和空间结构损失的双重挑战。传统的自注意力机制的计算复杂度为 O (N²),这使得处理长上下文时非常耗时,并且将二维图像转化为一维序列会导致空间关系的丢失。
为了解决这些问题,GSPN 采用了创新的二维线性传播方法,并结合 “稳定性–上下文条件” 理论,将计算复杂度降低到√N 级别,同时保留了图像的空间连贯性。这种新的机制大幅提升了计算效率,并在多个视觉任务上刷新了性能纪录。
GSPN 的核心技术包括两大部分:二维线性传播和稳定性 - 上下文条件。通过逐行或逐列的线扫描,GSPN 能够实现对二维图像的高效处理。与传统的注意力机制相比,GSPN 不仅减少了参数量,还保持了信息的完整传播。此外,研究人员还提出了稳定性 - 上下文条件,确保在长距离传播时系统的稳定性与可靠性。
在实验中,GSPN 展现出了卓越的性能。在图像分类任务中,GSPN 在5.3GFLOPs 的计算量下,实现了82.2% 的 Top-1准确率,超越了多种现有模型。在图像生成方面,GSPN 在处理256×256的任务时,生成速度提升了1.5倍。尤其在文本到图像生成任务中,GSPN 能够在16K×8K 分辨率下进行快速生成,推理时间加速超过84倍,展示了其在实际应用中的巨大潜力。
综上所述,GSPN 通过独特的设计理念和结构,使得视觉注意力机制在保持空间连贯性的同时,实现了计算效率的显著提升,为未来的多模态模型和实时视觉应用开辟了新的可能。
项目主页:
https://whj363636.github.io/GSPN/
代码:
https://github.com/NVlabs/GSPN
来源:
AIbase基地
回复
举报
返回列表
发布新帖
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
快速入口
社区门户
社区首页
随客云计算
重要文档
社区规则
官方公告
关于我们
团队介绍
产品合集
联系我们
532352
028-67879779
tech@isuike.com
Copyright © 2001-2025
Suike Tech
All Rights Reserved.
随客交流社区 (备案号:
津ICP备19010126号
)
|
Processed in 0.115011 second(s), 7 queries , Gzip On, MemCached On.
关灯
在本版发帖
返回顶部
快速回复
返回顶部
返回列表