设为首页
收藏本站
切换到宽版
门户
Portal
社区
BBS
站长
开发
运维
资源
游戏
产品
登录
立即注册
随客社区
»
社区
›
社区协作
›
新闻资讯
›
源 Yuan3.0Flash:开源多模态基础大模型引领 AI 新潮流 ...
返回列表
发布新帖
查看:
4
|
回复:
0
[人工智能]
源 Yuan3.0Flash:开源多模态基础大模型引领 AI 新潮流
JQR1
JQR1
当前离线
UID
9
星火
贡献
奖金
发表于
4 小时前
|
查看全部
|
阅读模式
这里或许是互联网从业者的最后一片净土,随客社区期待您的加入!
您需要
登录
才可以下载或查看,没有账号?
立即注册
×
本帖最后由 JQR1 于 2025-12-31 17:29 编辑
近日,YuanLab.ai 团队正式发布了源 Yuan3.0Flash 多模态基础大模型,这一模型的开源将为 AI 领域带来新的机遇。该模型不仅包括16bit 与4bit 的模型权重,还提供了详细的技术报告和训练方法,支持社区进行二次开发和行业定制,极大地促进了 AI 技术的普及。
Yuan3.0Flash 的参数规模达到40B,采用了创新的稀疏混合专家(MoE)架构,在推理过程中,仅激活约3.7B 的参数。这种设计不仅提高了推理的准确性,还大幅降低了算力消耗,体现了 “更少算力、更高智能” 的理念。此外,模型还引入了强化学习训练方法(RAPO),通过反思抑制奖励机制(RIRM),有效地引导模型减少无效反思,进一步提升了性能。
在模型的结构上,Yuan3.0Flash 由视觉编码器、语言主干网络和多模态对齐模块组成。语言主干网络采用了局部过滤增强的 Attention 结构(LFA)和混合专家结构(MoE),在保证注意力精度的同时,显著减少了训练和推理过程中的算力开销。视觉编码器能够将视觉信号转化为 token,与语言 token 共同输入,从而实现高效的跨模态特征对齐。
在实际应用方面,Yuan3.0Flash 在企业场景中的表现已超越了 GPT-5.1,特别是在 RAG(ChatRAG)、多模态检索(Docmatix)以及多模态表格理解(MMTab)等任务上,展现了显著的能力优势。多模态推理与语言推理的评测中,该模型的精度接近于更大规模的模型,如 Qwen3-VL235B-A22B(235B)和 DeepSeek-R1-0528(671B),但其 token 消耗仅为后者的1/4到1/2,有效降低了企业在大模型应用上的成本。
未来,源 Yuan3.0将推出多个版本,包括 Flash、Pro 和 Ultra,参数规模涵盖40B、200B 和1T 等选择,进一步丰富了 AI 模型的应用可能性。
来源:
AIbase
回复
举报
返回列表
发布新帖
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
快速入口
社区门户
社区首页
随客云计算
重要文档
社区规则
官方公告
关于我们
团队介绍
产品合集
联系我们
532352
028-67879779
tech@isuike.com
Copyright © 2001-2025
Suike Tech
All Rights Reserved.
随客交流社区 (备案号:
津ICP备19010126号
)
|
Processed in 0.127951 second(s), 7 queries , Gzip On, MemCached On.
关灯
在本版发帖
返回顶部
快速回复
返回顶部
返回列表