返回列表 发布新帖
查看: 66|回复: 0

[人工智能] Meta 团队研究发现:简化推理链条能显著提升 AI 准确率

发表于 2025-5-29 16:51:27 | 查看全部 |阅读模式

这里或许是互联网从业者的最后一片净土,随客社区期待您的加入!

您需要 登录 才可以下载或查看,没有账号?立即注册

×
202305091556144476_5.jpg

近期,Meta 的 FAIR 团队与耶路撒冷希伯来大学的研究人员联合发布了一项新研究,表明减少大型语言模型的推理时间可以显著提高其在复杂推理任务中的表现。研究结果显示,使用较短推理链的 AI 模型准确率提高了34.5%,这一发现对当前 AI 行业的假设提出了挑战。

在这项研究中,作者指出,长时间的思考链条并不一定能够带来更好的推理能力,反而会导致计算资源的浪费。以往,许多公司投入大量资源以扩展计算能力,期望 AI 能够通过详尽的步骤来解决复杂问题。然而,这项研究表明,较短的推理过程不仅能提高准确性,还能显著降低计算成本。

研究团队提出了一种新方法,称为 “short-m@k”,该方法能够并行执行多个推理尝试,并在少数过程完成后立即停止计算。最终答案通过对这些较短推理链的多数投票选出。结果显示,该方法能够在保证性能不变的情况下,将计算资源减少最多40%。这种方法为组织部署大型 AI 推理系统提供了重要的参考,能够显著节约成本。

此外,研究还发现,训练 AI 模型时使用较短的推理实例,能够进一步提高模型的表现。这与以往的假设相悖,以往认为长时间的推理训练可以带来更好的性能,但实际上,采用较短的训练实例效果更佳。

在 AI 行业中,企业通常急于部署更强大的模型,而这些模型往往需要消耗巨大的计算资源。这项研究的发现,促使技术决策者重新思考推理 LLM(大型语言模型)在测试时的计算方法。研究表明,长时间的 “思考” 不一定能提高性能,反而可能导致结果的下降。

这一研究成果对希望节约计算成本并提升性能的技术巨头们来说,具有重要意义。在一个追求扩展的行业中,教授 AI 更加简洁的思维方式不仅能够节省计算资源,还能提升智能水平。归根结底,人工智能也受益于 “别想太多” 这一古老智慧。

来源:AIbase基地

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2001-2025 Suike Tech All Rights Reserved. 随客交流社区 (备案号:津ICP备19010126号) |Processed in 0.098052 second(s), 8 queries , Gzip On, MemCached On.
关灯 在本版发帖返回顶部
快速回复 返回顶部 返回列表