关注政府决策中的算法透明性
2021年01月04日 09:14 来源:《中国社会科学报》2021年1月4日第2082期 作者:本报记者 王悠然

  2020年12月,荷兰期刊《信息政体》(Information Polity)推出了一期特刊《政府中的算法透明性:多层视角方向》(Algorithmic Transparency in Government: Towards a Multi-Level Perspective)。其中的六篇论文分析了不同层级政府在运用算法作决策的过程中经历的挑战,旨在帮助人们在概念和实证层面更好地理解如何在政府决策中使用算法。

  部分算法系统存在偏向性

  据特刊客座编辑、荷兰莱顿大学公共管理学院助理教授萨拉·盖斯特(Sarah Giest)和荷兰乌得勒支大学治理学院副教授斯蒂凡·格雷姆里克怀森(Stephan Grimmelikhuijsen)介绍,以往的研究显示,机器学习技术以及算法有望提高政府服务的公平性、有效性,将决策从人类的主观性中“解脱”出来。如今,算法在医疗、司法等许多公共服务领域日益普及。例如,在司法系统中,由算法预测犯罪者再犯概率的准确性高于人类法官。

  但是,基于算法的决策或建议也可能给弱势群体带来过多负面影响。例如,荷兰一些地方政府曾引入一个系统,用算法筛选可能实施社会福利诈骗行为的人群。该系统的应用遭到了一部分人反对,并于2020年被荷兰一家法院判定“具有歧视性”“不透明性”,因为弱势群体往往被预测为具有诈骗嫌疑的行为人。这种偏倚(bias)现象背后的一大问题是算法的透明性不足。实际上,政府决策中所用的算法大多由商业机构开发,这些算法被视为知识产权,不会对民众公开。政府基于不透明的算法作决策是有风险的,因为具有偏向性的决策会侵蚀民众对政府的信任。盖斯特谈到,针对政府算法决策不透明的批评迅速增加,仅揭示算法的技术细节是不够的,还需考察算法运行的制度、机构、个人背景,如此才能真正确保政府透明、负责任地使用算法。

  透明性涉及各个政府层级

  格雷姆里克怀森称,算法使用的透明性挑战贯穿政府的不同层级。立法机构可以设立算法透明性机制,行政机构可以出台算法使用的新政策,政府工作人员个人可以有自己的知识技能库,所有这些层级相互作用并影响着公共机构内的算法透明性。透明性挑战还可能呈现不同的形式,技术工具、监管指导方针、机构政策既能增加透明性,也能限制透明性。特刊收录的文章在宏观(macro-)、中观(meso-)、微观(micro-)三个层级上探讨了透明性挑战。宏观层级在制度视角下描述现象:国家体制、法律法规、文化在算法决策中起到什么作用?中间层级关注机构和团队:政府机构大体上是如何应对算法透明性问题的?制定了哪些机构和团队策略?微观层级聚焦信仰、动机、互动、行为等个人属性,例如,社区工作人员是如何使用算法的?透明的算法是否会让他们作出不同或更好的决策?

  在宏观层级上,芬兰赫尔辛基大学政治学教授佩尔蒂·阿霍宁(Pertti Ahonen)和泰罗·厄吉拉(Tero Erkkil?覿)考察了与政府算法决策透明性相关的观念冲突和概念转变。通过分析国家性和国际性的官方文件,开展半结构化的专家访谈,他们发现欧盟和芬兰的法律法规以复杂的方式相互交织。虽然存在具有约束力的规范,例如《通用数据保护条例》(GDPR),但成员国在如何制定和实施具体政策上有一定的自由空间。在芬兰国内,算法透明性及其他自动化决策的透明性概念处在法律、伦理、政治、政策、管理、技术领域的复杂交界地带,人们对相关法律的解读存在理念冲突。阿霍宁和厄吉拉的研究提供了两点重要启示:第一,在算法和算法决策的透明性问题上,欧盟和国家法律框架以及成员国的公共领域(public sphere)传统之中既有制约因素也有促进因素,应就这一主题开展比较研究。第二,为了让研究人员拥有更大的监督管控力度,同时提供专业见解,有必要考察专家顾问机构的作用。

  荷兰莱顿大学公共管理学院助理教授亚历克斯·英格拉姆斯(Alex Ingrams)采用无监督机器学习(unsupervised machine learning)方法分析了美国运输安全管理局(TSA)收到的数千条公众评论。经过分析,研究人员发现了突出的话题群(topic cluster),可帮助政策制定者在公开征求意见过程中了解大量信息。这项研究表明,不仅算法本身应具有透明性,算法还可作为提高政府决策透明性的工具。

  在中观层级上,基于半结构化访谈和文献分析的定性研究方法,西班牙马德里自治大学政治学与国际关系学教授J.伊格纳西奥·克里亚多(J. Ignacio Criado)等学者分析了瓦伦西亚自治区政府使用的一种算法系统。他们希望回答两个问题:算法在多大程度上影响政府工作人员作决策时的自由裁量权?算法透明性对政府工作人员的自由裁量权有何影响?这项研究显示,算法对政府工作人员的自由裁量权有积极作用。让他们积极参与到法律承认的研发或审核过程中,有助于增强算法透明性。

  爱尔兰都柏林圣三一大学信息系统副教授弗兰克·班尼斯特(Frank Bannister)和爱尔兰都柏林城市大学信息系统教授雷吉娜·康纳利(Regina Connolly)提出,随着人工智能的发展,人类决策正在越来越多地依赖算法和机器学习技术。能够检测到算法决策的风险并将风险分类,对于系统化地、精准地应对风险至关重要。

  在微观层级上,墨西哥经济研究与教育中心(CIDE)公共管理教授里克·皮特斯(Rik Peeters)提出,如果不能理解算法如何影响人类决策,算法设计如何影响透明性和人类自主判断的实际可能性,“保持人类知情”(keep humans in the loop)的呼吁或将是无力的。通过回顾近期的学术文献,皮特斯发现,透明性和人类自主判断的前提由三个关键的设计变量(自动化程度、算法类型、组织范围)决定,有限理性(bounded rationality)、满意行为(satisficing behavior)、自动化偏倚(automation bias)、一线应对机制(frontline coping mechanism)对人类如何使用算法中的监督和超驰控制(override)选项起到关键性影响。

  美国得克萨斯农工大学公共服务与管理系副教授贾斯汀·布洛克(Justin Bullock)等学者设计了一个将关于人工智能、人类自主判断、公共机构行政制度形式的研究整合起来的理论框架,并以此考察了公共部门使用人工智能的两个非常不同的领域(医疗保险审计和警务)。研究结果显示,人工智能对人类自主判断的影响是非线性、非单调的(nonmonotonic)。

  盖斯特和格雷姆里克怀森表示,为倡导负责任的、透明的算法使用,接下来的研究应探索上述宏观、中观、微观层面之间的相互作用。

责任编辑:崔岑
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026