ChatGPT写作:出版界怎么看
2023年02月24日 08:29 来源:《中国社会科学报》2023年2月24日第2597期 作者:本报记者 王俊美

  ChatGPT已在科学文献中正式亮相,在多篇已发表的论文和预印本中成为作者。研究人员、期刊编辑和出版商开始讨论此类人工智能在已发表文献中的地位,以及将其列为作者是否合适。与此同时,一些出版商正在探索利用ChatGPT帮助记者撰写短篇新闻报道,但其内容的原创性和准确性还有待进一步确认。

  出版商如何看待ChatGPT作者

  英国《自然》期刊新闻团队采访的出版商一致认为,ChatGPT等人工智能不符合科研作者的标准,它们无法对科学论文的内容和完整性负责。《科学》系列期刊主编霍尔顿·索普(Holden Thorp)公开表示,在《科学》及其子刊中发表的学术文章,不允许将ChatGPT等人工智能工具列为论文作者,在没有适当引用的情况下使用人工智能生成的文本,可能会被视为剽窃。但也有出版商认为,人工智能对撰写论文的贡献可以通过其他方式获得承认。英国泰勒—弗朗西斯出版集团正在审查其政策,该机构出版道德与诚信总监萨宾娜·阿拉姆(Sabina Alam)表示,她同意作者对其作品的有效性和完整性负责,一旦使用了人工智能模型,应在致谢部分予以注明。

  澳大利亚国立大学国家公众意识科学中心访问学者丹尼·金斯利(Danny Kingsley)在接受本报记者采访时表示,越来越多的出版商拒绝接受ChatGPT作为作者,并给出了理由。国际出版伦理委员会2月13日发布了一份题为《作者身份和人工智能工具》的立场声明,表明了其认为人工智能工具不能被列为论文作者的立场。该声明表示,人工智能工具不符合作者身份的要求,因为它们不能对提交的作品负责。作为非法人实体,人工智能也不能断言论文是否存在利益冲突,无法处理版权和许可协议。

  对于作者要对内容的准确性和完整性负责的说法,金斯利举了个极端的例子:如果以ChatGPT为作者的论文中的错误导致了人员死亡,谁来承担责任?此外还有作者排序的问题,在大多数研究领域,排名第一的作者被认为是主要作者,但是ChatGPT不会从作者身份中获益,那么这种贡献在相关作者顺序中的位置就难以确定。

  国际出版伦理委员会的声明提到,在撰写手稿、制作图片或图形元素以及收集和分析数据时使用人工智能工具的作者,必须在论文的某一部分明确披露如何使用人工智能工具以及使用了何种工具。作者要对其手稿的内容负全部责任,也必须对任何违反出版道德的行为负责。金斯利表示,显然,人工智能未来将普遍存在于我们的生活中,即使当下ChatGPT作为论文作者的身份不被承认,也无法阻止研究人员在未来的研究中使用此类工具。学术界迫切需要为此制定相关指导原则,以便更好地应对可能出现的风险。

  谨慎对待人工智能新闻写作

  美国数字媒体网站“Digiday”2月13日报道,虽然一些媒体因采用ChatGPT或类似的人工智能技术为其网站制作内容引起了争议,但到目前为止,这些媒体似乎还是少数。Digiday采访的6位资深编辑和媒体高管表示,目前他们并未将人工智能技术集成到新闻编辑的工作流程中,但他们鼓励编辑团队学习ChatGPT技术,并积极讨论如何通过人工智能技术协助记者完成工作。

  其实,人工智能技术在新闻编辑中的应用并非新鲜事。美国《福布斯》杂志在其名为“伯蒂”的内容管理平台中就内置了人工智能和机器学习工具,以帮助记者优化标题、生成内容和推荐图片。多年来,美联社一直在使用人工智能技术撰写关于企业盈利的报道。《华盛顿邮报》也使用“机器人记者”参与奥运会和美国总统选举的报道。

  然而,人工智能写作仍具有局限性,特别是在准确性方面存在较大问题。人工智能系统还不够先进,无法区分信息来源是否可靠。美国“未来主义”网站执行编辑乔恩·克里斯蒂安(Jon Christian)表示,虽然记者也会犯错,但与人工智能现在所犯的错误程度或数量大有不同,人工智能在科技资讯网站“CNET”上的生成内容错误百出,同时还涉及剽窃问题。人工智能技术目前尚未发展到能够取代人类记者的水平。面对看似“万能”的人工智能技术,编辑不应降低警惕,而是要以谨慎的态度对待。

责任编辑:常畅
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026