本报综合外媒报道 9月19日,美国宾夕法尼亚州立大学官网刊发消息称,一项新研究成果显示,如果某个人对他人缺乏信任,则意味着这个人将更加信任人工智能在线审核的能力,该发现对社交媒体人工智能工具的设计者和用户均具有重要意义。
宾夕法尼亚州立大学媒体效应教授S. 希亚姆·桑德尔(S. Shyam Sundar)表示,“我们发现了一种系统模式,即不信任其他人的人对人工智能的分类能力表现出更大的信任”。分析显示,这似乎是由于用户认为机器代表了准确、客观且没有偏见。但与此同时,那些“超级用户”,即经验丰富的信息技术用户,出现了相反的趋势。他们不太信任人工智能,因为这些用户认为机器缺乏鉴别人类语言细微差别的能力。
研究人员表示,该研究结果有助于提升人类未来对人工智能的接受度。通过创建用户定制的系统,设计师可以帮助人们降低怀疑和不信任情绪,并建立对人工智能的适当依赖。该研究的实际意义主要是找出适当的沟通和设计策略,帮助用户调整他们对自动化系统的信任程度。即某些对人工智能技术过于信任的人群要注意其局限性,而那些不相信人工智能有能力审核内容的人应该充分了解人类在这个过程中的参与度。
(王俊美/编译)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>