社会科学提升算法决策公平性
2023年09月11日 09:29 来源:《中国社会科学报》2023年9月11日第2732期 作者:刘雨微/编译

  本报综合外媒报道 由英国伦敦政治经济学院创办的“影响博客”近日发布消息称,政府部门和商业机构逐渐使用算法决策辅助办公室工作,公众也开始关心算法决策是否会加重社会不公平这一道德问题。德国慕尼黑大学统计与数据科学系教授、美国马里兰大学社会数据科学中心联合主任弗劳克·克鲁特(Frauke Kreuter)等人表示,当前大部分有关算法决策的伦理研究都出自计算机学科。社会科学的竞争优势之一就是揭示社会不平等问题的根源及其影响,社会科学家还掌握着广泛的社会事务专业知识和评估社会影响的调研方法,因此有必要让社会科学家参与对算法决策系统的道德监管。

  克鲁特表示,算法决策系统建立在处理历史数据的模型的预测能力上。数据处理的目标是“学习”以往输入和输出之间的关联,以便在输出不确定时预测输入,再根据预测结果来决定行动。作为一个总称,算法决策包括协助或替代人工决策的各种系统。举例来说,利用数十年间的刑事记录训练算法,可以帮助法官预估再犯风险,再决定是否要保释嫌疑人。抵押贷款机构可以根据算法预测的违约风险来设定利率。公共社会服务也能依靠算法来制定财政援助政策。

  为了阐明社会科学家如何为人工智能的道德监管贡献专业知识,克鲁特等人将算法决策过程划分为三个环节:数据基础、数据准备与分析、实际实施与结果。值得注意的是,技术缺陷或者人为决定都有可能在算法决策系统的各个环节制造歧视、偏见、不公平等负面社会影响。首先,研究人员讨论了算法决策系统的数据基础。算法需要类型合适的高质量数据,才能对个人进行精准预测。社会科学专家在评估测量质量和数据代表性上积累了丰富的经验,特别是在涉及不同人口群体时。但是,即便是从技术角度看质量很高的数据,它的来源也可能存在问题,尤其是这些数据已经反映出社会上普遍存在的偏见。在这种情况下,社会科学专业知识就能帮助计算机科学家识别和处理此类偏见。

  克鲁特等人表示,数据准备与分析环节涉及变量和数值的重新编码、分组、删除、转换等多种影响预测结果公平性的活动。另外,为了避免算法对特定群体造成不成比例的负面影响,开发人员在训练算法时应当综合考虑人工智能技术的社会背景和公众认可度等因素,谨慎界定“公平”的概念。在社会科学家看来,社会语境知识和数据收集方法,例如焦点小组、定性访谈和定量调查,能够为上述问题提供有效的解决方案。

  最后一个环节则是检测算法决策的履行效果是否符合道德和伦理。检查一项决策对个人和社会团体的实际影响,正是社会科学的基本工作之一。克鲁特及其同事列举了三种方法:一是研究算法决策系统如何影响某一群体或整个社会;二是利用模拟技术来预测小规模个体决策组合对社会群体的影响程度;三是比较某一任务所采用的算法决策系统和代替方法(例如无需任何算法辅助的人工决策)在效率和公平性方面的差异。需要指出的是,即便是在社会科学家的介入下,也不应该使用算法来作出永远不应该由算法单独作出的决定。

  克鲁特等人总结道,开发和执行遵守道德准则的算法决策系统需要社会科学家的积极参与。后者掌握的方法和经验可以有效辨识量化算法决策系统的社会影响,追溯负面效益的源头,提高人工智能的公平程度,从而造福各个行业和公共部门。

  (刘雨微/编译)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026