作者:文乐乐 来源:中国科学报 发布时间:2023/8/3 18:16:40
选择字号:
人工智能工具大举“入侵”科学搜索引擎

互联网搜索引擎中出现的人工智能(AI)聊天机器人,如谷歌的Bard、微软的Bing等,似乎将越来越多地改变科学搜索。


据《自然》报道,8月1日,荷兰出版业巨头爱思唯尔为其Scopus数据库的一些用户发布了一个基于ChatGPT的AI界面,而英国数字科学公司宣布为其Dimensions数据库的AI大型语言模型(LLM)进行封闭试验。同时,美国科睿唯安公司表示,他们也试图将LLM纳入其Web of Science数据库。


用于科学搜索的LLM并不是什么新鲜事,Elicit、Scite和Consensus等初创公司已经有了这样的AI系统,即依靠免费的科学数据库,或通过与出版商合作来访问付费的研究论文,帮助总结一个领域的发现或识别顶尖研究。而现在,拥有大型科学数据库的公司也加入其中。


作为试点推出的爱思唯尔聊天机器人名为Scopus AI。负责该工具开发的爱思唯尔的Maxim Khan说,作为一个轻便、有趣的工具, Scopus AI旨在帮助研究人员快速获得他们不熟悉的研究主题的摘要。在回答一个自然语言问题时,机器人使用LLM GPT-3.5版本获得一段关于研究主题的流畅总结、引用的参考文献以及需要进一步探索的问题。


对用于搜索尤其是科学搜索的LLM的一个担忧是,它们是不可靠的。LLM并不理解其产生的文本,只是通过输出文本上看似合理的词语来工作。其输出可能包含事实错误和偏见,而且正如学者们很快发现的那样,LLM可能会编造不存在的参考文献。


因此,Scopus AI受到了限制,它只能通过参考5至10篇研究摘要来生成答案。Khan 解释说,AI本身并不会寻找这些摘要,相反,在用户输入查询后,一个传统搜索引擎会将它们作为与问题相关的内容加以提供。


爱思唯尔限制Scopus AI仅搜索自2018年以来发表的文章,以获取最近的论文,并指示其在回复中适当引用返回的摘要,以避免不安全或恶意的查询,并指示其说明收到的摘要中是否没有相关信息。这不能避免错误,但可以最大限度地减少错误。


那么,用户是否有可能将机器人生成的段落复制粘贴到自己的论文中,从而对内容进行抄袭?Khan表示,这是有可能的。不过,爱思唯尔通过“指导意见”来解决这一问题,要求研究人员负责任地使用摘要。资助者和出版商也发布了类似的指导意见,要求透明地披露LLM是否用于撰写论文或进行同行评审,或者在某些情况下声明不应该使用LLM。


目前,Scopus AI仅向约1.5万名用户推出,该公司表示,预计将于2024年初全面开放该工具。


同样在8月1日,数字科学公司宣布将为其庞大的Dimensions数据库引入AI助手,目前同样只针对选定的测试者。在用户输入问题后,搜索引擎首先检索相关文章,然后开放的AI GPT模型围绕已检索到的排名靠前的摘要生成摘要段落。


Dimensions还使用LLM提供了相关论文的更多细节,包括研究结果的简短总结。


数字科学公司首席产品官Christian Herzog说,公司希望在今年年底前在更广泛的范围发布该工具,但目前正在与科学家、资助者和其他使用Dimensions的人合作,测试LLM在哪些方面可能有用——这还有待观察。他说:“这关乎逐渐适应一项新技术并建立信任。”


同时,科睿唯安也表示,该公司正“致力于在Web of Science中添加LLM支持的搜索”,但没有透露相关工具发布的时间。


版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。
打印 发E-mail给:
相关新闻 相关论文
图片新闻
大规模调查揭示万余种食物相关微生物 科学家揭示超铁元素核合成新机制
6000年古迹揭示石器时代建筑者的工程智慧 森林可持续经营:给陆地碳汇扩容
>>更多
一周新闻排行
编辑部推荐博文
Baidu
map