近日,清华大学电子工程系副教授方璐带领课题组成员,与中国工程院院士、清华大学自动化系戴琼海院士课题组组成交叉研究团队,在智能光计算芯片领域实现了新的突破。相关成果已于近日发表在Science期刊。
他们首创干涉-衍射分布式广度光计算架构,研制了全球首款大规模通用智能光计算芯片——太极(Taichi),其系统级能效为每秒每焦耳160万亿次运算,超越主流商用AI芯片3个数量级,为后摩尔时代高性能智能计算开辟了新路径。
太极芯片首次赋能智能光计算实现超过1000个类别的自然场景图像分类,以及跨模态内容生成等智能任务,可为AI大模型、智能无人系统、通用人工智能(AGI)等提供强有力的算力支持。
在这项研究初期,团队一度遭遇很大的困难。令研究者感慨的是,他们最终通过回顾上世纪80、90年代甚至更早期的经典成果,突破了研究瓶颈。他们表示,正是这种追求初心的态度使得研究团队能够不受时代局限,不受潮流影响,始终保持对科学问题本质的关注和热情,从而产生新的突破。
光具备传播速度快、表征维度多、计算功耗低等物理特性,智能光计算成为新一代人工智能的国际交叉前沿,拥有广泛的应用前景。
研究团队针对大规模通用智能光计算难题,摒弃了现有光计算沿用传统电子深度计算的范式,提出分布式广度计算架构,构建深度浅但宽度广的光神经网络,整体架构可重构、可复用。
与传统的深度计算层层堆叠的方法不同,太极通过将复杂智能任务化繁为简,拆分为多通道、高并行的子任务,同时为子任务单独组织集群、分配计算资源,从而实现复杂任务的高效处理。
受“易有太极,是生两仪”的中国传统哲学理念启发,研究团队以光的干涉和衍射表征“两仪”,建立干涉-衍射片上联合传播模型。
“通过融合干涉的灵活可重构特性和衍射的大规模高并行特性,以辩证统一的理念实现干涉-衍射智能光计算。这种统一使得太极光芯片不仅具有可重构通用计算能力,也具备高通量并行计算能力,实现一加一大于二的效果。”论文共同一作、清华大学电子工程系博士生徐智昊解释道。
?
太极芯片。受访者供图
研究初期,团队沿用了电子计算的深度学习架构以构建大规模智能光计算,然而,推进了半年就遇到了瓶颈:随着层数的增加,计算规模与计算精度存在不可调和的矛盾。
“过去,我们构建网络结构大多是沿用电计算架构,却发现光的优势和潜力无法在电的架构中发挥出来,如同笼中困兽。通过理论建模和分析发现,是电的架构‘囚禁’了光的能力,也就是说现有的深度神经网络的架构并不适合智能光计算。”方璐在接受《中国科学报》采访时说。
为了挣脱瓶颈,研究团队决定走出固有电架构思维的舒适区,寻求新的架构突破。他们将目光投向了上世纪80、90年代甚至更早期有关机器学习、神经网络的经典研究成果。在这些可能被遗忘的想法和经典智慧中,通过重新审视和借鉴,他们找到了突破当前困境的关键:回到最古朴的思路——做宽、做浅。
在方璐看来,回顾经典也是回归科研的初心,放下对潮流的盲从。这种追求初心的态度使得研究团队能够不受时代局限,不受潮流影响,始终保持对科学问题本质的关注和热情,从而发现新的思路、提出新的理论。
太极光芯片的诞生是交叉学科合作的结晶,脑科学研究也为太极光芯片的架构研发提供了重要思路。有脑科学的研究提出“浅脑理论”,即大脑以浅层扁平架构形成大规模的并行计算单元。从感知到运动,甚至意识,各脑区都在这个浅层网络中发挥着重要作用。“脑科学的系列成果带给我们的研究很多启发。”方璐补充道。
然而,推翻构架仅仅只是个开始。接踵而至的是另一个艰巨的挑战:芯片研制。
太极光芯片是研究团队历时3年不懈努力,历经无数次失败和挑战后,所收获的成果。
在芯片研发的漫长征程中,流片是一个至关重要的里程碑,它标志着研究团队的理论概念将要转化为实际可制造的芯片。对于方璐和她的研究团队来说,这个阶段充满期待和焦虑。
“流片周期通常需要3到6个月,等待芯片加工完成是一件很焦灼的事情。团队希望芯片快点回来,进入下一阶段的测试;同时又担心流片的效果不好。这意味着要从头再来一遍,时间成本很高。”方璐说。
研究团队第一次流片时,等待了4个月,结果不尽如人意。他们不得不从零开始,重新审视每一个细节,寻找可能存在的问题。经过2个月的调整和优化,又等了6个月,第二次流片结果送回时,团队成员们露出来了开心的笑容。
在这项研究研究中,太极光芯片的实验成果是团队共同“苦熬”出来的。
“为了让实际实验结果达到理论仿真的预期,我们不断调整和优化实验系统。每一次实验都是一个漫长而繁琐的过程。类似的过程重复‘上演’了百余次,研究团队的目标是将千分类智能任务的准确率做到90%,最终以超出预期的结果结束了这场‘持久战’。”徐智昊告诉《中国科学报》。
?
方璐(左一)和课题组学生(中间为徐智昊)在实验室。杜珊妮摄
2023年9月,团队第一时间投稿给了Science编辑部。论文在3天后送审,1个多月后,研究团队就收到了第一轮审稿意见。
“审稿人对太极光芯片的架构思路产生了意见分歧。深度学习发展至今,深度神经网络已经成为主流的智能计算架构。”方璐说。
研究团队坚持自己的观点,用更多的理论和实验证据说服审稿人。第二轮审稿结束后,他们的论文被顺利接收了。
今年是方璐从事科学研究的第17年:她本科毕业于中国科学技术大学,博士毕业于香港科技大学,现任清华大学电子工程系长聘副教授。
大规模光电智能计算是方璐团队一以贯之的研究目标,整个团队为实现这一目标构建了纵向并行、横向联网的路径规划。
“团队成员都有各自独立的研究问题,在并行探索路径的同时,彼此之间也会进行交叉合作,开展原创思想的交流碰撞。‘路漫漫其修远兮’,研究团队将会不忘初心,在大规模智能光计算的路径上持之以恒地求索。目前我们正在搭建芯片的应用系统,为产业化提供可行的方案。”方璐补充道。
https://www.science.org/doi/10.1126/science.adl1203
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。