人工智能文本增大误判风险
2023年06月02日 04:57 来源:《中国社会科学报》2023年6月2日第2663期 作者:刘雨微/编译

  本报综合外媒报道 据美国斯坦福大学官网报道,人工智能每天都会在聊天软件、电子邮件和社交媒体等平台生产数十亿条被误认为是由人类编写的文本信息,使用户受到错误信息误导的风险增大。斯坦福大学传播系教授杰夫·汉考克(Jeff Hancock)认为,人们往往无法辨别文本是否由人工智能生成,因为大众基于“经验法则”的判断思路很容易被人工智能的算法误导。不仅如此,随着模型不断升级,由人工智能生成的文本将“比人类更人性化”。

  汉考克等人调查了大众是否能够成功地辨别出发表于在线约会、酒店租房和职业招聘这三类网站上的文本作者是人工智能还是人类。实验表明,研究参与者的判断准确率只有50%—52%,和掷硬币的随机概率大致相同。参与者对网站上的文本判断准确率都大体相似。对此,汉考克表示,人们在区分人工智能和人类创作的文本上的失败,与人们使用的“经验法则”判断方法中的缺陷有关。当面对过多的信息时,人们通常选择“经验法则”这种富有经验性和探索性,但又不完全准确的原则来作出认知判断。例如,当实验参与者过于依赖直觉的合理性或者通过搜寻文本中共有的语言线索来进行判断时,往往就会产生误判。在该实验中,那些语法正确性高、熟练使用第一人称代词的文本,往往被参与者误认为是人类创作的文本。而那些频繁提及家庭生活、使用非正式对话的文本,也会被错误地认为是人类的作品。

  汉考克认为,真正令人担忧的是科技公司利用用户对人工智能的假设来不断优化人工智能的语言模型,创造出“比人类更人性化的人工智能”。考虑到目前大众对人工智能生成文本带有缺陷的判断方法,以及互联网内容制作成本下降的趋势,汉考克担心,用不了几年,由人工智能生成的内容数量就会超过人工创作的内容,虚假信息也会随之增多,直至互联网生态系统被破坏。当这种情况发生时,人类对互联网信息的默认信任就会被侵蚀,人与人之间的信任度也会降低。

  针对以上问题,汉考克表示,为人工智能设计一个可识别的口音,就能帮助人们更准确地分辨文本由谁而作。口音技术甚至可以与智能水印等其他技术合并使用,以方便人工智能在高风险的场合下自我披露身份。即便如此,汉考克承认,青年人需要接受更多有关社交媒体风险防范的教育培训,才能有意识地分辨、抵制、举报互联网虚假信息和有害内容。此外,生成式人工智能的开发者也要重新调整语言模型的发展方向,以确保它们不会蓄意破坏用户的认知。社会需要完善相关法律规制,来限制人工智能技术的滥用和负面影响。

  (刘雨微/编译

责任编辑:常畅
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026