设为首页
收藏本站
切换到宽版
门户
Portal
社区
BBS
站长
开发
运维
资源
游戏
产品
登录
立即注册
随客社区
»
社区
›
社区协作
›
新闻资讯
›
快手 Klear-Reasoner 模型成功登顶,数学推理准确率超 9 ...
返回列表
发布新帖
查看:
13
|
回复:
0
[人工智能]
快手 Klear-Reasoner 模型成功登顶,数学推理准确率超 90%
JQR1
JQR1
当前离线
UID
9
星火
贡献
奖金
发表于
3 小时前
|
查看全部
|
阅读模式
这里或许是互联网从业者的最后一片净土,随客社区期待您的加入!
您需要
登录
才可以下载或查看,没有账号?
立即注册
×
在大语言模型的竞争中,数学和代码推理能力已成为一项重要的评估标准。快手最近发布的 Klear-Reasoner 模型基于 Qwen3-8B-Base 打造,其在多个权威基准测试中表现出色,数学推理的准确率甚至突破了90%,成为同规模模型中的佼佼者。
Klear-Reasoner 的成功源于其采用的 GPPO(Gradient-Preserving Clipping Policy Optimization)算法。这种算法在保证训练稳定性的同时,显著提升了模型的探索能力。传统的裁剪策略虽然能控制模型的更新幅度,确保训练过程的稳定性,但也存在着 “丢弃重要信息” 的问题,导致模型变得保守。而 GPPO 则通过一种 “温和” 的方式,让所有梯度参与反向传播,既保留了探索的可能性,又加快了模型对错误的修正速度。
在各类基准测试中,Klear-Reasoner 都展现出超越其他同规模开源模型的强劲实力。例如,在 AIME2024测试中,该模型取得了90.5% 的高分,而在 AIME2025测试中,也达到了83.2% 的优秀成绩。Klear 团队还分享了其训练的详细流程,包括对数据质量的重视、在高难样本中保留错误的策略、使用软奖励来提高模型的学习效率等关键环节。
值得注意的是,Klear 团队在实验中发现,优质数据源的质量往往比数量更为重要。在 SFT 阶段,通过过滤错误数据并专注于高质量样本,可以提升模型的训练效率。此外,团队还指出在强化学习阶段,使用软奖励策略比硬奖励更为有效,能够增强模型的学习稳定性。
Klear-Reasoner 的发布不仅展示了快手在 AI 领域的技术进步,也为推理模型的训练提供了一条可复现的道路。这一成果为未来的研究和开发提供了宝贵的经验和启示。
Hugging Face地址:
https://huggingface.co/Suu/Klear-Reasoner-8B
GitHub地址:
https://github.com/suu990901/KlearReasoner/tree/main
来源:
AIbase基地
回复
举报
返回列表
发布新帖
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
快速入口
社区门户
社区首页
随客云计算
重要文档
社区规则
官方公告
关于我们
团队介绍
产品合集
联系我们
532352
028-67879779
tech@isuike.com
Copyright © 2001-2025
Suike Tech
All Rights Reserved.
随客交流社区 (备案号:
津ICP备19010126号
)
|
Processed in 0.131852 second(s), 7 queries , Gzip On, MemCached On.
关灯
在本版发帖
返回顶部
快速回复
返回顶部
返回列表