本报综合外媒报道 英国牛津大学官网5月5日报道称,该校研究人员与国际专家合作展开一项新研究,探索如何解决大型语言模型造成的生成内容责任相关的复杂伦理问题。由法律、生物伦理学、机器学习等相关领域专家组成的跨学科团队,深入研究了大型语言模型在教育、学术出版、知识产权以及错误和虚假信息生成等关键领域的潜在影响。
生成式人工智能程序可以产出高质量的内容,但也有概率产生有害内容。目前围绕大型语言模型有诸多讨论,主要关注点在于其会带来怎样的正面或负面影响。该研究将重心放在使用这一技术带来的责权不清问题,即当出现正面结果时,应归功于谁,出现负面结果时,应当由谁负责。研究人员表示,并非所有大型语言模型的使用都是有益的,它也可以用来生成有害内容,包括错误和虚假信息。因此,用户应当对自己使用大型语言技术生成的内容负责。
研究人员表示,对该技术的用户而言,产生积极结果时不能完全归功于他们,但一旦产生负面结果,如出现错误信息、准确性不足,用户则需要对此负责。这就可能导致“成就落差”,即同样完成工作,但人们无法像从前一样从中获得满足和认可。
该研究的第一作者塞巴斯蒂安·波茨坦·曼恩(Sebastian Porsdam Mann)和布莱恩·厄普(Brian D. Earp)表示,大型语言模型责任的概念更新迫在眉睫。尤其是教育和出版业需要尽快制定大型语言模型的使用和责任准则规定。研究人员提出,可以在提交文章时附带一份关于大型语言模型的使用声明及补充信息,对于大型语言模型应当与对人类创作者一样,明确承认技术的参与和贡献。
大型语言模型在教育领域或许可以提供帮助,但也要注意生成内容会出现错误,以及过度使用会影响批判性思维等问题。文章提出,各高校应考虑调整评估方式,重新思考教学方法,并更新学术不端行为指南以处理大型语言模型的使用。该研究提出大型语言模型的开发者可以效仿生物医学等领域的自我监管制度。建立起信任对大型语言模型的进一步发展至关重要。
(练志闲/编译)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>