图像传感器对自动化机器在内的各种应用至为重要,需要兼具良好的整体视觉质量(对场景的准确解读)以及快速运动探测(实现快速反应)。不过,整合各种理想功能可能会影响效率或是需要在图像质量和延迟上做出取舍。
中国与瑞士科学家在两项独立研究中证明了混合方法能在克服之前局限的同时满足这两种需要,这些方法或能用于自动驾驶汽车。相关研究近日发表于《自然》。
在其中一项研究中,清华大学机械工程学院教授施路平和同事以人类视觉系统的运作方式为灵感,开发了一款传感芯片,能将快速但不精确的感觉与慢速但更精确的知觉相结合。这个视觉芯片名为“天眸”,它有一个混合像素阵列,能将低准确度但快速的事件探测(无需太多细节便可对变化做出快速反应)与慢速处理相结合,实现对场景的准确可视化。他们用一个自动驾驶感知系统证明了该芯片能快速稳健处理图像的能力。该芯片在多个情景进行了测试,包括开车经过一个黑暗隧道,应对相机闪光灯的干扰,以及探测汽车前方有人走过。
“天眸芯” 登上《自然》杂志封面。清华大学供图
在另一项研究中,苏黎士大学的Daniel Gehrig和Davide Scaramuzza用视觉感知专用相机克服了这些困难。全彩相机分辨率很高但需要大量数据处理(带宽)来探测快速变化;降低带宽会导致延迟增加,从而会影响安全性。而事件相机虽然能探测快速的移动,但会牺牲准确度。研究表明,有一种混合系统能让自动驾驶汽车实现稳健的低延迟目标探测。通过结合这两种相机,彩色相机的帧率会降低,从而在确保准确性的同时降低带宽、提升效率,而事件相机也能弥补彩色相机造成的高延迟,确保能探测到快速移动的目标,如行人和汽车。
这两种方法或能让自动驾驶汽车和其他应用实现更快、更高效和稳健的图像处理。(来源:中国科学报 冯维维)
相关论文信息:https://www.nature.com/articles/s41586-024-07358-4
https://www.nature.com/articles/s41586-024-07409-w