本报综合外媒报道 近日,美国宾夕法尼亚大学官网报道称,该校社会政策与实践学院和安纳伯格传播学院的研究人员发表的一篇论文提出,科学家在使用ChatGPT进行研究之前必须解决相关的伦理挑战,并合乎道德地使用人工智能资源。
研究人员注意到,ChatGPT在研究辅助、主题生成、数据编辑和演示文稿开发等方面可以提供帮助。他们认为,聊天机器人是“最适合作为科学家的辅助技术工具”,但在使用人工智能技术辅助研究前,需要先解决道德问题。
这篇文章概述了ChatGPT和其他大型语言模型在偏见、合法性、道德、数据隐私、保密性、知情同意和学术不端等方面面临的挑战,并从五个方面为该技术的道德使用提供了建议。第一,提高透明度,即学术写作应当公开内容产生过程及作者;第二,严格执行事实核查,学术写作必须核实信息并标注引用来源;第三,明确作者身份,科学家在使用人工智能工具时必须保留其作者身份;第四,严禁剽窃,应找到创意所有者和内容作者并标明出处;第五,提高包容性、推进社会正义,应制定反种族主义的框架和方法,以消除大型语言模型对有色人种以及来自全球南方的作者的潜在偏见。研究人员认为,当前用来训练模型的文本未能充分代表不同的观点,未能包括代表性不足群体的学术成果,那么,根据现有文本训练的模型可能会导致偏见,甚至可能会延续并放大基于种族、性别和其他身份的偏见。
(练志闲/编译)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>