谷歌研究:大型语言模型难以自我纠正推理错误

[db:摘要]

谷歌DeepMind最新研究表明,大型语言模型在没有外部指导的情况下,难以自我纠正推理错误。研究人员发现,模型仅依靠自身想法来纠正最初反应时,经常会出错。研究还发现,通过多个模型投票达成一致虽可实现自我一致,但这与真正的自我纠正还有差距。研究者表示,这项研究结果对开发需要更高安全性的应用具有重要意义。他们呼吁在认识自我纠正潜力与局限性的基础上,继续努力改进现有语言模型。

本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/22897

该文观点仅代表作者本人,平台仅提供信息存储空间服务。

(0)
aiucaiuc
上一篇 2023年10月19日
下一篇 2023年10月19日

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注