警惕算法歧视加剧不平等
2022年07月08日 08:09 来源:《中国社会科学报》2022年7月8日第2444期 作者:王悠然/编译

  本报综合外媒报道 据美国心理学会官网6月27日报道,该学会主办的《实验心理学杂志:综合》将刊发以色列希伯来大学商学院助理教授约坎南·毕格曼(Yochanan Bigman)等人的研究《算法歧视引起的义愤弱于人类歧视》。研究发现,人们因算法歧视而产生的愤慨之情较弱,一般也不会问责使用这些算法的企业。

  当前,企业和政府越来越多地利用算法来改善决策;算法有助于减少决策中的人类偏见,但也常导致对不同人群的区别对待。该研究旨在考察人们对算法歧视的宽容度是否高于对人类之间歧视的宽容度。研究人员针对招聘过程中的性别歧视开展了8项实验。他们向来自美国、加拿大、挪威的3900多名实验参与者展示了多个招聘情景,其中的性别歧视既有算法造成的,也有人类造成的。

  结果显示,相较于人类歧视,参与者对算法歧视的愤慨程度较低,也大多不认为使用这些算法的企业需要负法律责任。不过同样地,采用算法来消除性别不平等的企业,其声誉提升程度也低于通过员工行为来消除性别不平等的企业。在8个实验中,有1个实验针对的不是性别歧视,而是种族歧视和年龄歧视,但实验结果相似。另外,关于算法的知识对参与者的感受没有明显影响。有150多名参与者自称是“对人工智能了解较多”的技术劳动者,但他们对算法歧视的愤慨程度也弱于人类之间的歧视。

  在研究人员看来,出现上述对“算法歧视宽容”的原因是人们认为人类歧视源于偏见,而算法歧视源于数据。因此,算法设计人员在工作中应注意避免这种非故意的歧视产生,相关的公共教育和宣传活动也应强调算法歧视的根源可能是已有的不平等。

  (王悠然/编译

责任编辑:常畅
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026