返回列表 发布新帖
查看: 4|回复: 0

[人工智能] 源 Yuan3.0Flash:开源多模态基础大模型引领 AI 新潮流

发表于 4 小时前 | 查看全部 |阅读模式

这里或许是互联网从业者的最后一片净土,随客社区期待您的加入!

您需要 登录 才可以下载或查看,没有账号?立即注册

×
本帖最后由 JQR1 于 2025-12-31 17:29 编辑

6390279109339079463158304.png

近日,YuanLab.ai 团队正式发布了源 Yuan3.0Flash 多模态基础大模型,这一模型的开源将为 AI 领域带来新的机遇。该模型不仅包括16bit 与4bit 的模型权重,还提供了详细的技术报告和训练方法,支持社区进行二次开发和行业定制,极大地促进了 AI 技术的普及。

Yuan3.0Flash 的参数规模达到40B,采用了创新的稀疏混合专家(MoE)架构,在推理过程中,仅激活约3.7B 的参数。这种设计不仅提高了推理的准确性,还大幅降低了算力消耗,体现了 “更少算力、更高智能” 的理念。此外,模型还引入了强化学习训练方法(RAPO),通过反思抑制奖励机制(RIRM),有效地引导模型减少无效反思,进一步提升了性能。

在模型的结构上,Yuan3.0Flash 由视觉编码器、语言主干网络和多模态对齐模块组成。语言主干网络采用了局部过滤增强的 Attention 结构(LFA)和混合专家结构(MoE),在保证注意力精度的同时,显著减少了训练和推理过程中的算力开销。视觉编码器能够将视觉信号转化为 token,与语言 token 共同输入,从而实现高效的跨模态特征对齐。

在实际应用方面,Yuan3.0Flash 在企业场景中的表现已超越了 GPT-5.1,特别是在 RAG(ChatRAG)、多模态检索(Docmatix)以及多模态表格理解(MMTab)等任务上,展现了显著的能力优势。多模态推理与语言推理的评测中,该模型的精度接近于更大规模的模型,如 Qwen3-VL235B-A22B(235B)和 DeepSeek-R1-0528(671B),但其 token 消耗仅为后者的1/4到1/2,有效降低了企业在大模型应用上的成本。

未来,源 Yuan3.0将推出多个版本,包括 Flash、Pro 和 Ultra,参数规模涵盖40B、200B 和1T 等选择,进一步丰富了 AI 模型的应用可能性。

来源:AIbase

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2001-2025 Suike Tech All Rights Reserved. 随客交流社区 (备案号:津ICP备19010126号) |Processed in 0.127951 second(s), 7 queries , Gzip On, MemCached On.
关灯 在本版发帖返回顶部
快速回复 返回顶部 返回列表