本报综合外媒报道 近日,英国牛津大学官网刊发该校互联网研究所的一项研究成果称,大型语言模型的出现对科学构成了直接威胁,应当对其加以优化和监管,保护科学真理。
研究显示,大型语言模型自身无法区分事实和虚构。它们几乎对于任何提问都能给出答案,但现实是,错误回答司空见惯。近几个月,人们对大型语言模型和其他类型的生成式人工智能带来的机遇和风险议论颇多。有人认为,不良信息的出现源于这些模型的构建、调整和使用方式。
事实上,大型语言模型用于回答问题的数据并不总是出自准确的事实来源。模型是在大型文本数据集上接受训练,而这些文本数据集通常来自在线资源,其中可能包含了虚假的陈述、观点和创造性写作以及其他类型的非事实信息。除了建立在训练数据基础上的虚假信息之外,大型语言模型还会产生“幻觉”信息,即训练数据中并不存在、由模型自发生成的信息。
牛津大学互联网研究所高级研究员布伦特·米特尔施泰特(Brent Mittelstadt)表示,使用大型语言模型的人经常将技术拟人化,他们相信这些模型是一个类似人类的信息来源。其结果是,即使模型的答案没有事实依据,或者呈现的是偏见或部分真相,用户也很容易相信答案是准确的。因此,负责任地使用大型语言模型非常重要,如果这些模型被用来撰写和传播科学文章,可能会造成严重危害。为了保护科学和教育免受不良信息传播的侵害,研究人员认为,应该对大型语言模型能够负责任地作出何种贡献设定明确的期望。
研究人员建议,用户不应该依赖大型语言模型作为相关信息的来源,而应该向模型提供适当的信息,并要求它将其原本的输出转换为期望的输出。这是一种“零样本”(zero-shot)转换,即利用一些辅助信息进行内容的输出。以这种方式使用大型语言模型可以更容易地检查输出内容是否正确,以及是否与人们提供的输入内容一致。这项技术无疑将有助于优化科学工作流程,同时,对其内容产出的审查也是保护科学的关键措施之一。
(王俊美/编译)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>