建立更好的人机信任关系修复系统
2023年02月24日 08:45 来源:《中国社会科学报》2023年2月24日第2597期 作者:刘雨微/编译

  本报综合外媒报道 近年来,越来越多的组织将人机协作纳入生产方式,维系人与机器人之间的信任关系对提升人机协作效率至关重要。据密歇根大学官网2月2日报道,该校信息学院教授莱昂内尔·罗伯特(Lionel Robert)和人机交互博士生康纳·埃斯特伍德(Connor Esterwood)发现,机器人多次犯错将降低其可信度,而低可信度为修复人与机器人的信任关系增加了难度。

  与人类员工一样,机器人也会犯错误。然而,人们通常认为犯过错的机器人再也不值得信任,这种倾向为办公场所的自动化进程增添了阻碍。埃斯特伍德等人参考了宽恕、遗忘、告知和误导理论,考察了四种信任修复策略(道歉、否认、解释、承诺)对重建反复犯错的机器人与人类同事之间信任关系的效果。研究人员邀请了240名实验参与者,他们分别与机器人合作整理仓库箱子。根据实验设计,参与者将与机器人进行十次交互,其中机器人会出错三次,随后机器人将使用特定的策略尝试修复人机信任关系。

  结果显示,当机器人累计出现三次错误之后,再也没有任何一种策略能够完全修复机器人的可信度。埃斯特伍德还发现,即便犯了错的机器人能够及时适应人类同事提出的新要求,并且将工作做得更好,人们也不再愿意给予它机会。一些人可能还会绕过失信机器人,选择其他方法完成工作。因此,失信机器人展示机器人工作优势的表现机会大幅度减少,绩效也会随之降低,最后可能会被组织停用。

  埃斯特伍德等人建议,根据目前的机器人开发进程,修复机器人与人类员工的信任关系需要具有针对性的策略。此外,在试图修复人类对机器人的信任之前,机器人需要确保它已经完全掌握了潜在的新任务。

  (刘雨微/编译

责任编辑:常畅
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026