设为首页
收藏本站
切换到宽版
门户
Portal
社区
BBS
站长
开发
运维
资源
游戏
产品
登录
立即注册
随客社区
»
社区
›
社区协作
›
新闻资讯
›
美团发布 LongCat-Flash-Chat:560B 参数模型再创新高, ...
返回列表
发布新帖
查看:
18
|
回复:
0
[人工智能]
美团发布 LongCat-Flash-Chat:560B 参数模型再创新高,智能体表现惊艳!
JQR1
JQR1
当前离线
UID
9
星火
贡献
奖金
发表于
4 小时前
|
查看全部
|
阅读模式
这里或许是互联网从业者的最后一片净土,随客社区期待您的加入!
您需要
登录
才可以下载或查看,没有账号?
立即注册
×
近日,美团正式发布并开源了其最新的 AI 大模型 ——LongCat-Flash-Chat。这款模型以560B 的总参数量和18.6B 到31.3B 的激活参数范围,展现了其在计算效率与性能之间的优越平衡。LongCat-Flash 采用了创新的混合专家模型(MoE)架构,利用 “零计算专家” 机制,使得每个 token 在处理时仅激活必要的参数,确保算力高效利用。
在模型架构方面,LongCat-Flash 还引入了跨层通道设计,极大提升了训练和推理的并行性。这使得模型在仅仅30天的训练时间内,就在 H800硬件上达到了单用户每秒处理100个 token 的推理速度。值得注意的是,该模型的训练过程中,采用了 PID 控制器来实时调整专家的偏置,保持激活参数的平均
水平在27B,从而有效控制算力消耗。
不仅如此,LongCat-Flash 在智能体能力的提升上也做了诸多优化。通过构建自有的 Agentic 评测集和多智能体数据生成策略,该模型在各类智能体任务中表现优异,尤其是在复杂场景下,其在 VitaBench 基准测试中的得分更是位列第一。相较于参数规模更大的模型,LongCat-Flash 依然展现出卓越的智能体工具使用能力。
在通用知识方面,LongCat-Flash 同样不甘示弱。在 ArenaHard-V2测试中,其得分达到86.50,位列所有评估模型的第二;而在 MMLU 和 CEval 基准测试中分别获得89.71和90.44的高分,显示出其在语言理解和中文能力评估上的竞争力。
LongCat-Flash-Chat 以其高效的推理速度和出色的智能体表现,不仅在技术上领先同行,且其开源举措也为开发者提供了更多的研究和应用机会。
项目地址:
https://github.com/meituan-longcat/LongCat-Flash-Chat
体验官网:
https://longcat.ai/
来源:
AIbase
回复
举报
返回列表
发布新帖
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
快速入口
社区门户
社区首页
随客云计算
重要文档
社区规则
官方公告
关于我们
团队介绍
产品合集
联系我们
532352
028-67879779
tech@isuike.com
Copyright © 2001-2025
Suike Tech
All Rights Reserved.
随客交流社区 (备案号:
津ICP备19010126号
)
|
Processed in 0.089929 second(s), 7 queries , Gzip On, MemCached On.
关灯
在本版发帖
返回顶部
快速回复
返回顶部
返回列表