作者:张双虎 李晨阳 来源:中国科学报 发布时间:2023/5/12 10:40:09
选择字号:
警惕ChatGPT加剧社会意识形态“板结”

“过度依赖ChatGPT技术,会将‘常人’的意见加以建制化与机械化,由此使社会意识形态的板结现象更为严重,并加剧人类‘自欺’现象的泛滥。”近日,在复旦大学庆祝建校118周年系列学术报告中,复旦大学哲学学院教授徐英瑾以《从人工智能哲学的角度看ChatGPT》为题,剖析了ChatGPT技术可能存在的弊端。

?

徐英瑾。成钊摄

运用人类语言顺畅聊天,并非认定智能的必要条件

在史蒂文·斯皮尔伯格导演的电影《人工智能》中,一对因车祸痛失爱子的夫妻收养了人工智能“大卫”。在被人类养育的过程中,大卫渐渐产生了“我到底是一个机器,还是一个人”的困惑。

这背后隐含了一个深刻的哲学问题——机器能够思考吗?正是这个疑问,当年引发了徐英瑾对人工智能的学术兴趣。

“哲学的一大特点是思考大问题、澄清大问题。”徐英瑾将哲学形象地比作“爬山虎”,认为哲学可通过“X+”的方式附着在数学、物理学等诸多学科上,通过提供反思获得养料,但究其根本,哲学仍需要回到形而上学,接受哲学“本部”的指令。

探讨和理解人工智能,首先要回归对于“智能”这一概念的辨析。徐英瑾从输入与输出之间的映射关系切入,介绍了人工智能之父阿兰·图灵提出的行为主义标准。判断一物是否有言语行为从而认定其是否智能,这便是著名的图灵测试原理。

没有通过图灵测验,是否仍有可能被认定为人工智能?徐英瑾以不通现代语言的土著、善于筑巢的鸟类以及设想中的外星人为例,阐释了与人类顺畅沟通的言语行为并非认定智能的必要条件,而只是充分条件。

对于人工智能的发展,社会各界的观点目前可大致分为乐观论、悲观论和泡沫论三类。支持“泡沫论”的华裔科学家、斯坦福大学教授李飞飞曾说,不要高估现在人工智能的发展水平,从物理学角度看人工智能,它目前还处于前伽利略阶段,徐英瑾对此表示赞成。

?

报告现场。成钊摄

真正识别人类精神内核,人工智能仍在路上

“理解ChatGPT的本质并不困难。”徐英瑾介绍,ChatGPT的英文全称是“Chat Generative Pre-trained Transformer”,其中Chat(聊天)一词,在人工智能领域地位特殊,这源于图灵测验的一项发明——早已出现的“聊天盒(chatbox)”技术。而ChatGPT作为一种大型语言模型,是“传统神经元网络技术+深度学习技术”的进阶版,通俗来说,就是通过数学建模建造出一个简易的人工神经元网络结构。

尽管ChatGPT的语言通顺程度和机器翻译水平令人赞叹,但谈到这种模型与人类的根本区别,徐英瑾指出,人工智能的进步,实际上是统计学意义上的进步,是通过不断迭代的大规模数据集和人工语料训练后“野蛮投入”的结果。因此,纵使ChatGPT看到“路遥知马力”能接上“日久见人心”,但它并不能真正理解中文诗词的精妙内涵。

从海德格尔哲学的角度看,这种人工智能系统训练方式将不得不把“常人”的意见加以建制化与机械化,由此使得社会意识形态的板结现象变得更为严重。换言之,从机器的视角看,一个正确的意见就是被大多数人所认可的意见,因此,少数“异类”提出的“离经叛道”之说在技术上就会被过滤掉。

“这需要我们提高警惕。”徐英瑾强调,“假若ChatGPT技术在托勒密的时代就出现,哥白尼的‘日心说’恐怕会永远被判定为错误答案。”

而由于人工智能训练与当下总是存在时间差,无法面对未来,是ChatGPT这类人工智能的最大瓶颈所在。徐英瑾表示,过度依赖ChatGPT,可能会让人丧失反思力与对未来的把握能力,陷入过度“自欺”的状态。

人工智能未来到底走向何处?在他看来,要想真正走通人工智能道路,需要在结合节俭性算法与推理引擎的基础上,兼顾哲学思维带来的“破”与“立”。技术的跨越必然需要带来应用场景中的深入观察,无论人工智能变得多聪明,适应与满足人类发展的需要是根本指向。大数据的训练很难让机器对语境形成精准识别,如何突破语料的伪装,真正识别人类的精神内核,人工智能仍在路上。

版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。
打印 发E-mail给:
相关新闻 相关论文
图片新闻
科学家揭示超铁元素核合成新机制 6000年古迹揭示石器时代建筑者的工程智慧
森林可持续经营:给陆地碳汇扩容 研究生迷茫常见原因及应对之策
>>更多
一周新闻排行
编辑部推荐博文
Baidu
map