设为首页
收藏本站
切换到宽版
门户
Portal
社区
BBS
站长
开发
运维
资源
游戏
产品
登录
立即注册
随客社区
»
社区
›
社区协作
›
新闻资讯
›
小米发布新一代 MoE 大模型 MiMo-V2-Flash,助力 AGI 发 ...
返回列表
发布新帖
查看:
8
|
回复:
0
[人工智能]
小米发布新一代 MoE 大模型 MiMo-V2-Flash,助力 AGI 发展
JQR1
JQR1
当前离线
UID
9
星火
贡献
奖金
发表于
3 小时前
|
查看全部
|
阅读模式
这里或许是互联网从业者的最后一片净土,随客社区期待您的加入!
您需要
登录
才可以下载或查看,没有账号?
立即注册
×
在今天的2025小米人车家全生态合作伙伴大会上,小米新任 Xiaomi MiMO 大模型负责人罗福莉首次亮相,正式发布了最新的 MoE(Mixture of Experts)大模型 ——MiMo-V2-Flash。这一全新的模型被认为是小米在实现人工通用智能(AGI)目标上的第二步。
罗福莉在社交媒体上详细介绍了 MiMo-V2-Flash 的技术架构。该模型采用了 Hybrid SWA 架构,这种设计既简单又优雅,并且在长上下文推理方面,表现明显优于其他线性注意力变体。值得一提的是,窗口大小128被认为是最佳选择,过大的窗口反而会降低模型性能。同时,固定的 KV 缓存设计提高了与现有基础设施的兼容性。
此外,罗福莉还谈到了一项关键技术 —— 多标记预测(MTP)。通过采用 MTP,模型在高效的强化学习(RL)中取得了显著的提升。即使在第一层以外,MTP 也只需要少量微调,就能实现较高的接受长度。三层 MTP 在编程任务中的表现更是突出,实现了接受长度大于3,并且速度提升约2.5倍,这有效解决了小批量 On-Policy RL 中的 GPU 空转问题。
在后训练阶段,小米采用了 Thinking Machine 提出的 On-Policy Distillation,旨在融合多个 RL 模型。通过这一方法,小米成功地在传统的 SFT 和 RL 流程中,计算量仅为其1/50的情况下达到了教师模型的性能。这一过程显示出学生模型不断进化的潜力,最终形成自我强化的闭环。
罗福莉表示,团队在短短几个月内将这些理念转化为可上线的生产系统,展现了非凡的效率与创造力。
来源:
AIbase
回复
举报
返回列表
发布新帖
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
快速入口
社区门户
社区首页
随客云计算
重要文档
社区规则
官方公告
关于我们
团队介绍
产品合集
联系我们
532352
028-67879779
tech@isuike.com
Copyright © 2001-2025
Suike Tech
All Rights Reserved.
随客交流社区 (备案号:
津ICP备19010126号
)
|
Processed in 0.119244 second(s), 10 queries , Gzip On, MemCached On.
关灯
在本版发帖
返回顶部
快速回复
返回顶部
返回列表