作者:张双虎 李晨阳 来源:中国科学报 发布时间:2023/5/20 23:57:34
选择字号:
破局ChatGPT挑战,在风险来临前为人类点亮新技能树

 

当前,ChatGPT类工具引爆全球人工智能热潮,如何未雨绸缪应对生成式人工智能带来的多重挑战?近日,在复旦大学建校118周年相辉校庆系列学术活动中,复旦大学国家智能评价与治理实验基地副主任、大数据研究院教授赵星,浙江大学公共管理学院研究员蒋卓人携手带来一场贯穿生成式人工智能前世、今生和未来的思考盛宴。

  ?

相辉校庆系列学术活动。复旦大学供图

生成式人工智能的前世今生

“这项技术并非凭空出现,而是有着悠久的历史渊源。”蒋卓人强调,在生成式人工智能90多年的发展历程中,不乏人类智慧闪耀的时刻。

1932年,法国工程师Georges Artsrouni创造了“机器大脑”(mechanical brain)装置。它通过查询多功能词典完成翻译,输入、输出都是一条纸带。虽然和今天的机器翻译不同,但它完全符合人们对生成式人工智能的定义,即人类输入一段内容,机器产生一段新的内容。

在20世纪中,麻省理工学院两位教授创造了最早的生成式人工智能之一,引入了贝叶斯网络因果分析概念并展示了如何利用卷积神经网络来识别图像……

2006年,华裔计算机科学家李飞飞着手构建数据库ImageNet。该数据库中有超过1400万张手工标注的图片,包含超过2万个类别。“正是有了这样一个庞大数据库的支撑,深度学习才能得以兴起。”蒋卓人说。

  ?

报告现场。复旦大学供图

ChatGPT何以成为明星产品?

1750亿参数量,3000亿训练单词数,这是ChatGPT的数据。2022年ChatGPT发布后,短短两个月内吸引了超1亿用户,成为有史以来用户增长最快的应用。

蒋卓人认为,要理解ChatGPT,就要理解它的关键技术:大模型基础训练、指令微调、人类反馈强化学习。

“大模型的全称是大型语言模型。”蒋卓人说,“它是一种概率模型,能告诉你一个词出现的概率是多少。一个好的语言模型,能精准地预测下一个词是什么。”

随着语言模型的发展,它具备了良好的语言理解能力,为让其与人类建立对话,研究者提出指令微调,通过引入思维链以及代码生成提升大模型的推理能力。

“这种能力对于大模型来说至关重要,使其可以在开放领域有很好的表现。”蒋卓人说。

至此,大模型初步具备了回答指令的可能,但回答质量却参差不齐。为了让大模型持续性地输出高质量回答,研究者又为此设计了一套基于人类反馈的强化学习方法,即通过大模型的微调、奖励函数的训练、以及大规模强化学习的优化来确保高质量回答的生成。

“OpenAI就是使用这种方法,大幅度降低了数据集构建成本。”蒋卓人说。

新智能带来新挑战

面对生成式人工智能带来的挑战,赵星从资源、技术、应用与社会伦理四个维度进行解读。

从资源维度来看,生成式人工智能需要高质量的数据,而中文世界的数据质量弱于英文。赵星认为,即使有很强大的翻译能力,类ChatGPT工具的中文处理效果也显著弱于英文,核心原因之一是投喂的中文数据质量较差。另外,硬件技术也是支撑我国人工智能产业高速发展的关键要素。

“科技界曾将人工智能的应用比作炼金术。”赵星打趣道,“人们将数据一股脑往模型里面扔,至于能否炼出有价值的东西,炼出的是什么,却没有明确的预期。”

很明显,在技术层面上生成式人工智能存在内生不确定性。

“当我们准备向全社会投放一种通用性工具,却不能明确它的科学原理是什么,就一定会有内生性风险。人工智能最核心的风险在于其结果的不可承受性。我们很少在治理问题上处于如此无力的状态。”赵星说。

在应用层面上,生成式人工智能产业发展的确定性与风险治理的不确定性将长期存在。而在社会方面,生成式人工智能不仅深陷知识产权与信息泄漏问题,或也将塑造真正的信息茧房。

“当生成式人工智能24小时都伴你身边,会潜移默化地让你认为一切都是你自己的决定。”赵星警示,“我们面对的,是一个会在短时间内崛起,或将引起严重后果且后果未知的事物。”

内生安全治理:让危机“已知”

面对生成式人工智能这个新对手,赵星认为不能沿用传统治理“被动回应外在威胁”的方法。相反,他的团队正在着眼于借助复旦大学大数据研究院院长邬江兴院士提出的“内生安全理论”,构建生成式人工智能治理的新模型。

“能否在未知的风险爆发前找到抵抗它的办法?这是生成式人工智能内生安全治理要解决的问题。”赵星说,“我们需要在人工智能风险来临前,给人类社会点亮一个新的技能树:应对人工智能非传统安全问题的能力。”

生成式人工智能的治理模型涵盖了三个层面。最外层是法律的监督与规约,中间层是管理层的敏捷治理,尤为强调的最内层是教育。在法律和政府治理之前,高等院校应和所有的教育机构一起,完成针对全人类的社会性融合人工智能的教育和训练。

内生安全治理模型的原理,是基于群体智能将个体“未知的未知”转化为群体“已知的未知”,从而进一步将其转化为“已知的已知”。

“当我们知道可能的风险是什么、产生在何处,生成式人工智能治理便有机会转化为常规性安全问题,我们就能尝试寻求到治理闭环的实现。”赵星说,“然而这仍需要理论、实践上长期的探索。”

赵星团队也开始探索生成式人工智能在科学评价中的应用,创新构建了“客观数据、智能算法、专家评议”三者和谐共生的“数智人”评价与治理新范式。近期团队也在开展利用类ChatGPT工具进行智能评价系统构建的探索实验。

“初步结果显示,虽然现阶段的生成式人工智能远没到能胜任学术评价这样的严肃评价工作的程度。”赵星表示,“但生成式人工智能表现出的‘跨学科’评价能力和‘涌现’推断预测潜力值得高度关注。”

 
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
《自然》(20241121出版)一周论文导读 清华这位院士搭建了一座室外地质博物园
科学家完整构建火星空间太阳高能粒子能谱 “糖刹车”基因破除番茄产量与品质悖论
>>更多
 
一周新闻排行
 
编辑部推荐博文
 
Baidu
map