书⽣·浦语2.5——InternLM2.5-7B模型宣布开源 支持处理百万字长文

[db:摘要]

2024年7月3日,上海人工智能实验室与商汤科技联合香港中文大学和复旦大学正式发布新一代大语言模型书⽣·浦语2.5(InternLM2.5)。

InternLM2.5-7B模型已开源,其他规模的模型也将陆续开源。上海人工智能实验室承诺继续提供免费商用授权,并通过高质量开源模型支持社区创新。

微信截图_20240708083247.png

该模型在以下方面有显著提升:

  1. 推理能力:InternLM2.5的推理能力显著增强,部分维度超越了Llama3-70B模型,特别在数学评测集MATH上实现了100%的性能提升,准确率达到60%,与GPT-4Turbo1106版本相当。

  2. 长文本支持:模型支持高达1M tokens的上下文,即能处理约120万汉字的长文,通过增加上下文长度和合成数据,优化了长文档理解与智能体交互。

  3. 自主规划与工具调用:具备搜索和整合上百个网页信息的能力,通过MindSearch多智能体框架,模拟人的思维过程,有效整合网络信息。

Github链接:https://github.com/InternLM/InternLM

模型链接:https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm2_5-7b-chat

书生·浦语主页:https://internlm.intern-ai.org.cn/

本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/19662

该文观点仅代表作者本人,平台仅提供信息存储空间服务。

(0)
aiucaiuc
上一篇 2024年7月8日 上午8:10
下一篇 2024年7月8日 上午8:43

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注