作者:张双虎 来源:中国科学报 发布时间:2021/9/30 10:43:36
选择字号:
浪潮发布全球最大人工智能巨量模型

9月28日,浪潮人工智能研究院在京发布全球最大规模人工智能巨量模型——“源1.0”。

源1.0的单体模型参数量达2457亿,训练采用的中文数据集达5000GB,相比超越美国OpenAI组织研发的GPT-3(模型1750亿参数量,570GB训练数据集),源1.0参数规模领先40%,训练数据集规模领先近10倍。

“源1.0在语言智能方面表现优异,获得中文语言理解评测基准CLUE榜单的零样本学习和小样本学习两类总榜冠军。”发布会上,浪潮人工智能研究员首席研究员吴韶华说。

在零样本学习榜单中,源1.0超越业界最佳成绩18.3%,在文献分类、新闻分类,商品分类、原生中文推理、成语阅读理解填空、名词代词关系6项任务中获得冠军;在小样本学习的文献分类、商品分类、文献摘要识别、名词代词关系等4项任务获得冠军。在成语阅读理解填空项目中,源1.0的表现已超越人类得分。

在对源1.0进行的“图灵测试”中,将源1.0模型生成的对话、小说续写、新闻、诗歌、对联与由人类创作的同类作品进行混合并由人群进行分辨,测试结果表明,人群能够准确分辨人与源1.0作品差别的成功率已低于50%。

巨量模型的发展备受关注。斯坦福大学李飞飞教授等人工智能领域知名学者近期在论文中表示,这类巨量模型的意义在于突现和均质。突现意味着通过巨大模型的隐含的知识和推纳可带来让人振奋的科学创新灵感出现。

“源1.0将面向学术研究单位和产业实践用户进行开源、开放、共享,降低巨量模型研究和应用的门槛,有效推进AI产业化和产业AI化的进步,切实为国家在人工智能研究创新和产业发展作出贡献。”浪潮人工智能和高性能计算总经理刘军说。

在发布会同期举行的研讨会上,专家表示,源1.0中文巨量模型的发布,使中国学术界和产业界可以使用一种通用巨量语言模型的方式,大幅降低针对不同应用场景的语言模型适配难度;同时提升在小样本学习和零样本学习场景的模型泛化应用能力。

版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。
打印 发E-mail给:
相关新闻 相关论文
图片新闻
3颗火山玻璃珠证明月球1.2亿年前仍活着 实验室培养干细胞或成为癌症治疗突破点
大规模调查揭示万余种食物相关微生物 科学家揭示超铁元素核合成新机制
>>更多
一周新闻排行
编辑部推荐博文
Baidu
map