商汤新一代大模型“书生·浦语”2.0正式开源
通信世界网消息(CWW)1月17日,商汤科技与上海AI实验室联合香港中文大学和复旦大学正式发布新一代大语言模型书⽣·浦语2.0(InternLM2)。InternLM2 的核心理念在于回归语言建模的本质,致力于通过提高语料质量及信息密度,实现模型基座语言建模能力质的提升,进而在数理、代码、对话、创作等各方面都取得长足进步,综合性能达到开源模型的领先水平。 InternLM2是在2.6万亿toke
2024-01-18 09:41:26
来源:通信世界全媒体 王鹤迦  

通信世界网消息(CWW)1月17日,商汤科技与上海AI实验室联合香港中文大学和复旦大学正式发布新一代大语言模型书⽣·浦语2.0(InternLM2)。InternLM2 的核心理念在于回归语言建模的本质,致力于通过提高语料质量及信息密度,实现模型基座语言建模能力质的提升,进而在数理、代码、对话、创作等各方面都取得长足进步,综合性能达到开源模型的领先水平。

InternLM2是在2.6万亿token的高质量语料上训练得到的。相比于初代InternLM,InternLM2的各项能力获得全面进步,在推理、数学、代码等方面的能力提升尤为显著,综合能力领先于同量级开源模型。根据大语言模型的应用方式和用户关注的重点领域,研究人员定义了语言、知识、推理、数学、代码、考试等六个能力维度,在55个主流评测集上对多个同量级模型的表现进行了综合评测。

评测结果显示,InternLM2的轻量级及中量级版本性能在同量级模型中表现优异。沿袭第一代书生·浦语(InternLM)设定,InternLM2包含7B及20B两种参数规格及基座、对话等版本,满足不同复杂应用场景需求,继续开源,提供免费商用授权。

InternLM2的轻量级及中量级版本性能在同量级开源模型中表现优异

最新文章
关于我们

微信扫一扫,加关注

商务合作
  • QQ:61149512