人工智能学术搜索工具需要审查和监督
2023年05月29日 09:38 来源:《中国社会科学报》2023年5月29日第2659期 作者:练志闲/编译

  本报综合外媒报道 《自然》杂志网站5月16日发文称,由大型语言模型支持的搜索工具正在改变科研人员查找学术信息的方式。此外,由于搜索工具的过程不够透明,其算法可能会偏向特定结果,从而影响研究结果。所以,在使用人工智能搜索工具辅助研究之前应该进行审查。

  人工智能辅助搜索工具为学术研究提供了许多便利,有的搜索工具能利用大型语言模型在数量庞大的数据库中搜索结果,有的能智能解读论文中的数据与文本。搜索系统会影响科学家获取知识,进而影响到研究进度。奥地利林茨约翰内斯·开普勒大学创新管理研究所研究员迈克尔·古森鲍尔(Michael Gusenbauer)表示,由大型语言模型支持的搜索工具都有局限性,因为它能编造不存在的论文,或产生不够准确的总结性内容。术语匹配和排序机制等并不透明,是否会遗漏重要结果或偏向更多呈现特定类型的论文等,都需要进一步研究。古森鲍尔介绍说,研究人员使用最广泛的搜索引擎是谷歌学术,但其在处理某些任务时表现不佳,如关键词中含有“或”“和”时,谷歌学术就不能充分展现搜索结果,因此他们建议在做系统综述和元分析时不要依赖谷歌学术。

  古森鲍尔表示,已经有许多领域开始采取措施应对大型语言模型,出版商、高校等学术机构都展开讨论并制定相应政策。在学术搜索方面也需要审查和监督,大型语言模型的表现能够且应该得到测试,而不应依赖技术提供方完成测试,应由第三方完成系统性核查。此外,图书馆工作人员或许也能在提高人工智能辅助搜索能力方面发挥重要作用。这些独立核查并非为了决定是否应该使用大型语言模型,而是提供更加明确和实用的指导,确定人工智能辅助搜索适用的任务,让它能更好地辅助学者展开研究。

  (练志闲/编译)

责任编辑:崔岑
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026