女性的数据也“顶半边天”
2021年04月30日 08:33 来源:《中国社会科学报》2021年4月30日第2158期 作者:徐偲骕

  关于性别平等问题的已有讨论多集中在文化符号领域和线下社会,关注女性社会性别表征的物化、刻板化与污名化,女性在就业市场和婚姻家庭中遭受歧视和不公正对待等。随着智能技术社会的到来,有研究者发现,性别歧视开始溢出以上范畴,人脸识别、搜索推荐、智能招聘、金融授信以及电商大数据等场景中皆存在广泛的算法性别歧视案例,性别不平等已经深入到了各类算法系统之中,一些根深蒂固的社会性别观念也已经演化成算法的内在机制,不仅放大了人的歧视,而且固化为体制化和规范化的机器秩序,还有可能产生变异,造成新的不平等。为此,2020年,联合国—中国社会性别研究和倡导基金(China Gender Fund, CGF)在其第九期招标项目中专门设立了一项“促进人工智能算法性别平等”的研究资助,由联合国女性署联合中国国内中标机构开展相关领域的研究和干预工作,以弥补AI发展中的性别盲点,足见这一“社会—技术”问题的紧迫性。

  2019年,英国作家和女性主义社会活动家卡罗琳·克里亚多·佩雷斯出版了《不被看见的女性:为男性而设计的世界中数据的性别偏见》(Invisible Women: Exposing Data Bias in a World Designed for Men)。在书中,她颇具启发性地指出,现有的大数据实际上并不完整,缺了世界上50%的人口——女性的数据。我们的世界严重缺乏基于性别的分类数据,因为这是一个以男性数据为基础而设计的世界。男性就是“一般人”,是世界的“默认设置”。经济活动和日常生活各方面的安排都用男性的标准代替整个人类的生活,各个领域都充斥着女性(数据)的“不在场”,导致对女性永久性、系统性的歧视,令她们生活在一个没有考虑她们需求的制度和物质环境中,面临大量不尽如人意的服务、别扭的产品和糟糕的经历。

  而且,这种“性别数据鸿沟”(gender data gap)并非数字时代才有,而是隐性社会规范延续的结果。长久以来,数据并没有被按照性别分类收集和使用。比如剧场、教室、办公室的空调经常根据男性的体感设置温度,女性普遍感觉太冷;手机设计尺寸太大,不适合女性单手使用;抗疫期间护士防护服非常不合身,因为设计者是以男性身材为标准的;女驾驶员更可能死于车祸,因为车的座位和安全测试用的假人是按男性体格设计的,并不符合女性身体的肌肉质量分布、脊椎骨间距、骨密度和身体平衡性——因为司机被默认为男性从事的职业。这些问题不是把产品或空间装饰成粉色、缩小一号就能解决的,其根源在于没有将女性的数据纳入设计和决策系统,从而未能真正照顾到她们的需求。因为在一个主要为男性并由男性建造的世界里,另一半的人口被系统性地忽视了。

  当缺乏女性数据这一问题进入数字技术和互联网时代,且当人类越来越依赖数据和算法时,技术领域也充满了“不被看见的女性”,她们仍然是“他者”和“第二性”。佩雷斯发现语音识别软件对于女声的识别度远低于男声,当汽车的语音指令系统无法理解女司机的语言时,她们就很危险了;翻译软件会默认将女医生、女博士翻译成男性头衔;女性在使用VR时更容易产生晕车感等。科技产品中的性别偏见很大程度上是因为背后的数据和算法存在性别偏见,技术和企业可能不是恶意或故意的,只是传统思维方式的产物,却扭曲了本应客观地支配生产生活的数据,从而影响了女性生活的方方面面。这不是单纯提高女性在IT行业的就业比例、增加女性程序员的数量就能解决的问题,也不是仅仅将某一套算法道德化、透明化并做到可解释就能迎刃而解的,重点是“原料”本身就存在缺陷。

  智能社会和算法技术的到来,令社会结构的形成和演化路径变得无比清晰,结构分析不再只能依靠“看不见摸不着”的抽象推论和演绎,结构与行动间周而复始的互构关系可以在机器世界里被精确勾勒并追踪。哪几种算法逻辑可能造成了哪些特殊的行动实践和制度后果?哪些行为和数据又训练出了怎样的算法?这种算法是否作为前提和结构再次作用于个体的行动并建构了新的秩序?性别秩序当然不会是例外,相比前智能时代,恰好因为偏见和歧视经由技术系统变成显性的、可被观察的对象,主动识别并用技术反向纠正它们可能变得更容易了。近期兴起的基于价值流动的数据生态画布方法,通过尽可能追踪不同的数据获益方及他们之间的数据交换,来确定个人数据的具体流动方向。

  在前沿技术领域,仅依靠哲学批判来对抗和逆转极端理性化的“数据主义”统治秩序似乎收效甚微,不妨变“对抗”技术为“驯化”技术,从丰富算法自动化系统的数据源入手,探索尽可能地采集、补充并输入同样“顶半边天”的女性数据。这些数据不仅包括女性已知的生理特征、行为习惯和设备使用模式,更蕴含着大量潜在的心理、精神和文化层面的女性元素。其一是为了防止原有性别不平等的社会文化秩序被写入机器决策过程,从而复刻、继承、加固旧的不平等,再生产新的不平等,届时的后果将更难以撼动。它不仅事关某些科技产品的设计思路和使用体验,更会影响公共政策的形成和供给。其二是通过强制性的技术力量克服人为制造的、主观上的不平等因素,反过来扭转和矫正现状。

  但这一思路仍需解决两个问题。首先,在《个人信息保护法》和《数据安全法》被列入本届全国人大立法计划,中国数据政策开始趋严的语境下,如何平衡扩大女性数据采集与个人隐私保护之间的矛盾?当然,处理这个问题不分性别,皆应在严格脱敏和加强保护的前提下合理开发,释放数据在改善女性生存环境方面的积极作用。也即保护时不分性别,开发采集和决策时扩大女性的覆盖。其次,何为性别平等仍无共识,公众的看法和感受本身就是主观和因人而异的,也要谨防智能技术单方面定义平等并垄断其解释权,形成新的霸权。因此,在涉及分配等社会客观公正议题时,不将女性单独列为一类,发挥技术的强制性力量,而在一些适宜保持差异的领域,训练机器对性别充分敏感,给出技术的“女性可供性”。这样既弥合鸿沟,又承认不同,就要求非常精细化的、综合的算法治理。

  简言之,女性的数据也“顶半边天”。改善数据源的目的,是为了引导机器“硬规则”向人道化和性别友好的方向进化,将我们身处的人—机交互环境乃至生活世界都改造得更为平等、包容和“柔软”,并让人工智能为女性赋能。这绝非追求两性在社会分工和性别文化上的无差异绝对平等,相反,这种平等恰恰建立在对差异的充分识别、尊重和维护之上。

  (本文系上海市社科规划青年项目“后疫情时代算法资讯平台从业者伦理困境及应对策略研究”(2020EXW002)阶段性成果)

  (作者单位:上海大学文化研究系、上海大学中国当代文化研究中心)

责任编辑:常畅
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026