女性视角有利于人工智能平衡发展
2019年05月15日 08:49 来源:《中国社会科学报》2019年5月15日第1692期 作者:侯丽

  随着人工智能的飞速发展,关于人工智能的性别偏见问题引发了业界学者的诸多思考。针对如何在人工智能的发展过程中平衡性别视角并充分发挥女性参与力量这一问题,本报记者进行了采访。

  女性视角缺失导致人工智能充满偏见

  人工智能的发展离不开大数据,而大数据往往会映射出人类社会对女性的偏见,这使得人工智能在发展过程中经常“偏离”航向。大数据所反映的人类社会对女性的“刻板印象”,将会被人工智能“复制”。比如,根据从大众舆论中抓取的关于女性从政者的数据,人们往往会得出结论认为,女性从政者比较感性,难以做出客观决断。而这种看法,很快会“传染”给人工智能。对此,美国亚利桑那大学社会学家摩根·约翰斯通堡(Morgan Johnstonbaugh)曾做过一项调查研究。研究结果显示,从大众舆论的角度来看,美国政界存在普遍的“女性歧视”,即认为女性从政者会更多地从生育等女性议题上介入决策过程。但通过对社交媒体的进一步研究,他发现,女性从政者并没有过多地集中在“女性话题”,反而在国家安全等话题上,与男性抱有同样强烈的兴趣和关注。但令人遗憾的是,这些关于女性的新研究无法在短时间内“校正”大众舆论对女性持有的“历史偏见”。而且,在目前全球较有影响力的人工智能研究机构及公司里,女性专家和工程师凤毛麟角,在《科学》(Science)期刊评出的全球十大顶尖人工智能专家中,没有一位女性。

  虽然人工智能领域正在出现越来越多的女性学者和领导者,但历史和现实的共同因素造成当前的人工智能研究很难兼顾女性视角,这导致很多人工智能产品在开发伊始就存在性别失衡,无法考虑到更多女性利益。比如,苹果手机于2014年推出的健康功能软件,开始并未考虑到女性对生理周期和体温变化的特别需求,女性用户对此表示抗议,最终苹果公司不得不修改了该程序。

  业界学者表示,类似于这样忽视女性价值的产品设计,不仅给科技公司带来了用户负面评价和经济损失,更重要的是,人工智能在重复既往偏见的过程中,并不会主动修复偏见,而只会进一步加深人类社会对女性整体评价的偏颇和对女性利益的忽视。

  人工智能抬高女性就业门槛

  人工智能领域需要大量女性学者和工程师的参与。但2018年底亚马逊招聘性别歧视风波却让人们从另一个侧面看到,女性进入人工智能领域依然是件“不那么容易”的事情。

  亚马逊作为全球知名在线零售商,为提高招聘效率,其在英国爱丁堡的团队开发出人工智能招聘软件,试图通过自动简历筛选来寻找到适合的人才。但因该软件在招聘初选过程中,更容易筛选出简历中诸如“执行力”“捕获力”等充满男性化的评价语汇,这使得女性应聘者很难进入应聘程序,因此被举报存在“性别歧视”。可怕的是,高盛、微软等知名公司同样在使用类似软件“寻找人才”。另据美国人才软件公司“职业建构者”(CareerBuilder)2017年的一项调查显示,约55%的美国人力资源经理表示,人工智能软件将在未来五年内成为他们日常工作的一部分,这预示着人工智能带来的性别评价偏见将在招聘领域继续恶化。

  波士顿大学城市学院数据分析项目的一位负责人表示,以美国为例,到2020年,全美数据分析(Data analytics)工作岗位需求量将达到270万,对人才的大量需求离不开女性的参与。目前,该校很多项目的招生过程中都有大量女性申请者,而且并没有证据表明女性不擅长数据和分析工作,很多女性对相关专业持有浓厚兴趣。

  两性视角各有所长

  美国卡内基梅隆大学计算机科学家尼哈尔·沙赫(Nihar Shah)表示,人工智能的性别平衡问题尚待解决,人们应该了解怎样做才能确保算法公平。

  哈佛大学工程和应用科学教授芭芭拉·克洛兹(Barbara Grosz)表示,人工智能未来如何与人类进行互动,是一个重要的发展方向问题,但目前的人工智能在理解人类情境和心理状态方面存在缺陷。比如,机器翻译往往会忽视对话时的情境和对话者的心理,但真正的对话过程并不是这样的,人们之间的交流可能有更加隐蔽的意思。显然,在解决这些问题时,女性的共情能力和理解力可以发挥所长。

  《深度学习—人工智能剧本》作者卡洛斯·佩雷斯(Carlos Perez)表示,人们希望通过人工智能驱动产品来解决实际问题,但要实现社会的可持续发展,就必须解决人类社会的一些根本性问题。我们必须让人工智能关注整个人类的发展,而不是让人工智能“把人们变成机器”。

  佩雷斯表示,已有大量研究表明,女性与男性大脑结构有所不同。例如,男女两性在左右脑连接方式上存在差异。从生物学意义上看,男性被“优化”为更擅长执行某项重要任务,其在某一领域的专注力更强;而女性在感知和协调性方面更具优势,女性的整合分析和直觉能力优于男性。这使得女性在考虑人工智能问题时,更能深入思考与人类繁衍和进化相关的问题,而不是仅仅把注意力局限于某个人工智能驱动的机器。

  斯坦福大学计算机科学教授丹妮拉·罗斯(Daniela Rus)认为,人工智能应在未来解决全球范围内人类面临的重大挑战,通过数据驱动的决策来更好地解决人类发展的重大问题。她认为,人类应该在人工智能的基础上去做更好的决策工作,而不是被人工智能和自动化设备所驱使。对于人工智能的发展,应补充“安全、可预测性、算法公平性、隐私和道德影响”等方面的相关评价指标。显然,在这些方面,女性视角应该被充分尊重,女性价值会使人工智能的发展更加健康,更加符合人类根本利益。

  (本报波士顿5月14日电 驻波士顿记者 侯丽)

责任编辑:刘远舰
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026