■本报记者 高雅丽
“当前,人工智能(AI)技术以惊人的速度发展,如近期DeepSeek引领了低成本开发使用大模型的革新,这既为驱动创新提供了更多可能,也带来了诸多风险挑战。因此在互联互通时代,加强国际合作至关重要。”在近日于法国巴黎举行的由“中国人工智能发展与安全研究网络”主办的“人工智能技术及其应用进展”专题边会上,清华大学交叉信息研究院、AI学院院长姚期智院士提出了大模型如何安全发展等问题。
“中国人工智能发展与安全研究网络”由我国产学研各界研究力量共同组成,成员单位包括清华大学、北京大学、中国科学院等。此次专题边会于“2025巴黎人工智能行动峰会”召开期间举办,旨在共同探讨如何利用国际合作平台,缩小智能鸿沟,确保所有国家都能从AI快速发展中受益,并期望推动建立一个开放包容、互利共赢的AI国际治理体系,共同迎接未来发展的机遇与挑战。
清华大学AI国际治理研究院院长薛澜主持会议并表示,为践行2023年中国发布的《全球人工智能治理倡议》,“中国人工智能发展与安全研究网络”凝聚中国AI发展和安全领域的优势力量和智力资源,对应“AI安全研究所”,代表中方与各国的AI安全研究机构展开对话与合作。以2024年中法关于AI和全球治理的联合声明为背景,此次会议将着力增进各方对中国AI发展与安全治理的了解,并期待倾听和增进其他国家对这一领域发展建设的见解,助力全球AI发展与治理的合作。
会上,清华大学计算机系教授唐杰提出,大模型研究的终极目标是教会机器像人一样思考,即实现通用人工智能(AGI),该目标可能很长远也可能很快实现。
对于2025年的AGI发展趋势,唐杰认为,自主的、具有代理能力的大型语言模型将成为日常生活和工作的核心,人类与代理之间的协作潜力将成为变革性的力量,而最具有突破性的变化将发生在科学研究领域。在“AGI安全”问题上,他提出需要在模型、个人和国家层面制定全面的安全策略。唐杰指出,AGI的路还很长,需要共同努力,实现安全、可控、无幻觉的稳步发展。
美国麻省理工学院教授、生命未来研究所所长马克斯·泰格马克表示,当前大国与大型科技公司热衷于推动AGI的实现,但忽略了对其控制机制的研究。为先进AI技术建造安全“护栏”是必要的,能避免技术失控引发极端、生存性风险。为此,有必要推动企业与政府合作,借鉴现有监管模式经验,在部署强大的AI系统之前,通过安全标准审查和控制机制保障其安全可靠。同时,应该倡导全球合作讨论,确保AI技术的发展符合人类利益和价值观。
在AI立法方面,清华大学智能法治研究院院长申卫星介绍,中国已形成多层综合结构。在定位上,中国AI立法力求在创新与监管之间取得平衡,确保法律的明确性,促进行业发展,并与现有法律保持一致。而在内容上,中国AI立法还需廓清AI的定义,建立同AI分级风险相协调的自我规制机制、风险管理机制、透明机制与损害救济机制。
申卫星表示,中国将在《全球人工智能治理倡议》指引下,加强国际合作,共同推动公平、公正的全球AI治理规则制定,以增强AI系统的安全可靠性,促进技术创新和包容性发展。
国际治理创新中心全球AI风险倡议执行主任邓肯·卡斯-贝格斯指出,应当针对不同场景和问题采取不同的国际治理机制。前沿AI失控等极端风险,依赖掌握前沿技术的国家之间进行协调;而深度伪造、虚假信息等一般性的AI风险,则更加依赖国内治理。各国政府应利用外交政策共同设计国际合作机制。
《中国科学报》 (2025-02-19 第4版 综合)