2018年,人工智能在无人驾驶汽车领域“连续撞车”,多家公司出现了安全事故,人工智能技术在安全、隐私等诸多方面挑战,人们开始质疑,“人工”和“智能”究竟能否和谐相处?
在这种焦虑情绪的影响下,人们开始思考人工智能未来的走向。日前在北京召开的新兴科技峰会上,这一话题受到了专家的广泛关注。
在互联网时代,每个人都可能深受网络流言的困扰,尤其是很多谣言集中在食品安全、健康等领域,有可能会产生非常恶劣的影响。
以医疗信息为例,用户在搜索信息时,由于认知不足,很难判断这些信息是不是完整、准确以及信息源的目的是什么,这导致了“魏则西事件”、“权健火疗”等悲剧的发生。
“医疗信息的检索结果关乎一个人的生命,用户必须要整理这些信息,避免被有特殊目的的人推送错误信息而导致的恶劣后果。”美国宾夕法尼亚大学计算机和
系教授丹·罗斯说。
他认为,人工智能中的自然语言处理技术可以帮助人们解决这一社会问题,它能够帮助人们去了解信息源,了解语意背后的证据,担任起“谣言侦探”的重任。
信息源包括信息的来源、目的、内容等,而各种说法背后的证据,可以使用神经网络来对证据进行分类,将大量的信息按支持度的强弱组织成证据链,了解不同说法的立场,检查不同说法的真实性。
不过,罗斯也坦言,目前自然语言处理技术还面临很多挑战,比如语意的模糊性,一词多义或者一种意思有多种说法,在这些情况下的理解完全取决于具体的应用场景。但他仍然呼吁人们多关注这个领域,严堵谣言的扩散。
不过,也有专家认为,人工智能要能真正“适应”人类社会,还需要一段很长的路。
卡内基梅隆大学计算机科学学院机器人研究所教授凯迪娅·斯凯洛认为,机器人终将会出现,会和人类一起工作、战斗、照顾老人,但是在这一天来临前,人们还需要在社会、心理方面做大量工作。
比如让机器人从事照顾老人的工作,它需要知道在进入房间时敲门;但是如果老人突发疾病,它又要能够直接闯入,并快速把老人送到医院,如果需要超速,它也要打破交通限速的规则。“这些决策都带有很大的不确定性,需要人们提前规定优先级。”斯凯洛说。
甚至有时,机器人还会干出一些令人“啼笑皆非”的事。有研究发现,在清理垃圾时,如果程序告诉机器人清理的越多,分数就越高,有时机器人会为了获得高分,把已经清理好的垃圾倒掉,再重新清理一次。
斯凯洛认为,如果单单让机器人去工作,那么它们很好控制;而如果人类要与它们有更多互动,未来使用机器人会变得越来越有挑战。
“如果让机器人在社会里的接受程度更高,它们必须要有社会性,它们的行为得是我们可接受的,它们也要符合社会行为的准则。”斯凯洛说。