Meta 团队研究发现:简化推理链条能显著提升 AI 准确率

近期,Meta 的 FAIR 团队与耶路撒冷希伯来大学的研究人员联合发布了一项新研究,表明减少大型语言模型的推理时间可以显著提高其在复杂推理任务中的表现。研究结果显示,使用较短推理链的 AI 模型准确率提高了34.5%,这一发现对当前 AI 行业的假设提出了挑战。

元宇宙 科幻 赛博朋克 绘画 (1)大模型

图源备注:图片由AI生成,图片授权服务商Midjourney

在这项研究中,作者指出,长时间的思考链条并不一定能够带来更好的推理能力,反而会导致计算资源的浪费。以往,许多公司投入大量资源以扩展计算能力,期望 AI 能够通过详尽的步骤来解决复杂问题。然而,这项研究表明,较短的推理过程不仅能提高准确性,还能显著降低计算成本。

研究团队提出了一种新方法,称为 “short-m@k”,该方法能够并行执行多个推理尝试,并在少数过程完成后立即停止计算。最终答案通过对这些较短推理链的多数投票选出。结果显示,该方法能够在保证性能不变的情况下,将计算资源减少最多40%。这种方法为组织部署大型 AI 推理系统提供了重要的参考,能够显著节约成本。

此外,研究还发现,训练 AI 模型时使用较短的推理实例,能够进一步提高模型的表现。这与以往的假设相悖,以往认为长时间的推理训练可以带来更好的性能,但实际上,采用较短的训练实例效果更佳。

在 AI 行业中,企业通常急于部署更强大的模型,而这些模型往往需要消耗巨大的计算资源。这项研究的发现,促使技术决策者重新思考推理 LLM(大型语言模型)在测试时的计算方法。研究表明,长时间的 “思考” 不一定能提高性能,反而可能导致结果的下降。

这一研究成果对希望节约计算成本并提升性能的技术巨头们来说,具有重要意义。在一个追求扩展的行业中,教授 AI 更加简洁的思维方式不仅能够节省计算资源,还能提升智能水平。归根结底,人工智能也受益于 “别想太多” 这一古老智慧。

划重点:  

🌟 研究发现,简化推理链条能使 AI 模型准确率提升34.5%。  

💡 新方法 “short-m@k” 能够将计算成本降低40%。  

📈 训练短推理实例可进一步提升 AI 性能,与以往的假设相悖。

本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/64519

该文观点仅代表作者本人,平台仅提供信息存储空间服务。

(0)
aiucaiuc
上一篇 21小时前
下一篇 21小时前

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注