提升基于算法决策的公平性
2020年05月15日 01:57 来源:《中国社会科学报》2020年5月15日第1926期 作者:本报记者 王悠然

  当前,公共部门和私人部门越来越多地使用算法来自动生成决策。这一现实引发了人们诸多讨论:基于算法的决策是否具有公平性和透明性?由机器作出决策能否避免人类决策的偏见?是否有相应的风险?算法偏见形成的原因是什么?本报记者围绕上述问题采访了相关学者。
  
  算法决策具有两面性
  
  麦肯锡全球研究院主席詹姆斯·曼尼卡与高级商业分析师杰克·希尔伯格表示,与计算机算法公平性相关的挑战并非新生事物。1988年,伦敦一所医学院用来决定哪些申请者能够得到面试机会的计算机程序,就存在歧视女性和非欧洲姓氏申请者的情况。然而,该程序的准确性比人类决策的准确性高,而且这所医学院录取的非欧洲学生比例高于伦敦大部分医学院。也就是说,这个存有偏见的算法产出的结果依然比许多人类决策更公平。

  随着数据的大规模数字化,算法越来越复杂,其应用范围越来越广泛,基于算法的决策将给个人和群体生活、社会经济运行带来不容忽视的影响。许多专家对算法决策表示欢迎,并将其视为治愈长期存在的人类偏见的一剂“解药”。许多情况下,算法能减少人类对数据的主观解读。

  当然,自动算法扩大已有的人类偏见的案例并不罕见。美国哈佛大学教授拉塔尼娅·斯维尼的研究显示,在互联网上搜索非裔美国人姓名,出现查询逮捕记录广告的几率更大。同样,拥有典型非裔姓名的人更容易被计算机算法定位为高利息信用卡用户。

  美国宾夕法尼亚大学教授卡提克·霍萨纳加表示,算法偏见比人类偏见更易造成大规模的负面影响。许多人认为算法是理性的、永不出错的,因而出现了一些利用算法左右选举结果、操纵市场的事件。另外,如果说一名“坏法官”的决定可能影响数千人,那么一个“坏算法”则可能波及数十亿人。

  美国东北大学计算机科学副教授克里斯托·威尔逊说到,精心设计、使用恰当并经过彻底审查的自动决策算法可能比人类更公平。人们应对算法进行长期监测,确保即便社会条件变化,算法仍能继续以正确方式运转。如果没有这些保障兜底,算法可能会加剧现有的人类偏见。
  
  两大原因导致算法偏见
  
  美国康奈尔大学信息科学助理教授索伦·巴罗卡斯提到,利用数据解决问题的各个环节都可能对特定人群不友好。美国智库布鲁金斯学会技术创新中心研究员尼可·特纳·李和美国密歇根大学信息科学教授保罗·雷斯尼克介绍称,形成算法偏见有两个重要原因,即历史性的人类偏见及不完全或代表性不均的训练数据。

  历史性的人类偏见来源于对特定群体的不公正看法,这种偏见很容易被计算机模型复制并放大。在美国亚马逊公司就发生过类似的事件。在该公司使用的招聘算法中,设计者“教”这个算法通过识别简历中的词汇来给求职者打分,并以亚马逊公司的工程师部门为参考标准。由于工程师部门以男性为主,所以导致算法将简历中含有“女性”一词的求职者评分降低。

  当然,有些算法偏见并不是人们故意为之,可能是在使用者不知情的情况下被加强和延续下去的。例如,被定位为高利息信用卡目标用户的非裔美国人打开相应广告时,可能意识不到自己将持续收到此类推送。这种负面的反馈循环或将导致算法的偏见性与日俱增。

  当用于训练算法的数据中某些人群的代表性较低时,基于算法的决策将会对他们不利。美国麻省理工学院计算机科学家乔伊·布兰维尼在研究中提出,面部识别软件依据特定的面部特征分辨性别,但来自深肤色女性的训练数据不足,因此算法将对这类女性的性别产生误判。反过来,训练数据过度集中于某些人群也会造成结果倾斜。美国乔治城大学法学院发布的一份报告显示,在美国执法机关使用的面部识别数据库中,非裔美国人比例高于白人,这意味着非裔被判断/误判为犯罪嫌疑人的概率更高。

  霍萨纳加告诉本报记者,在心理学与遗传学中,人类行为常被归因于出生时携带的基因与环境影响,即“先天与后天”的因素。算法其实并无不同。早期计算机算法的行为完全由其人类设计者用程序来进行设计,相当于“先天”;现代算法的逻辑学习大量来自真实世界数据,相当于“后天”。随着人工智能的广泛应用,现代算法的许多偏见和不可预测行为都源于训练数据。
  
  增强算法公平性
  
  威尔逊表示,研究者当前致力于提升机器学习算法的公平性,探索出许多探测和减轻算法偏见的方法。美国哈弗福德学院等高校的学者于2019年发表了一项研究,分析了现有的增强机器学习公平性的各种措施。另外,人们可以打开机器学习系统的“黑盒子”,了解机器学习模型在做什么、为何如此决策。研究表明,在不降低准确性的同时实现公平性是可能的。人类的判断力是保证算法公平性的重要方面,人类需要判断“公平”的含义。

  霍萨纳加说到,增强算法公平性,一要提高数据和算法决策背后逻辑的透明度;二要在广泛应用某种可能产生社会性后果的算法前,对该算法进行正式的审查和测试。对基于算法决策的监管可以借助某种“算法权利法案”来实施。这种法案应包含四个关键点:描述训练数据和训练数据的收集细节;以普通人能轻松理解的方式解释算法作出决策的步骤;将使用者与算法之间的反馈循环纳入对算法的管控;树立关于自动决策可能造成意外后果的责任意识。

责任编辑:常畅
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026