科层制有利于落实人工智能伦理规范
2023年08月16日 14:26 来源:《中国社会科学报》2023年8月16日第2714期 作者:刘雨微

  本报综合外媒报道 美国斯坦福大学官方网站近日发文表示,该校以人为本人工智能研究所研究员桑娜·阿里(Sanna Ali)等人考察了人工智能伦理规范在科技企业的具体实施情况及挑战。

  谷歌、微软、OpenAI等科技企业为平息公众对人工智能算法歧视的指责,作出了一系列决策,包括发布关于人工智能问责制、透明度和公平性的原则声明;开发评估算法公平性的工具包;举办研讨会,介绍如何开发负责任的人工智能。部分企业还组建了专门团队,处理用于训练机器学习模型的数据集当中存在的问题,发现并修正机器学习模型中存在的公平性问题,评估模型是否对它的预期用途具备充分的可解释性。阿里和她的同事将从事此类工作的人员称作“道德企业家”,他们的工作就是将新的道德伦理实践在组织中制度化。

  阿里表示,先前的研究展现了科技行业的几个重要特点。例如,在组织上存在非正式和非等级化倾向,将快速的产品创新放在第一位,认为新一代科技可以解决老旧技术带来的问题。阿里等人想要了解道德企业家在当前的科技行业制度环境中落实干预措施的真实情况。于是,他们深度采访了25名科技企业员工,其中21人具备参与大型和特大型企业的负责任人工智能开发计划经历,并对采访内容进行了定性分析。

  研究人员发现,落实负责任的人工智能政策效果与最初预想并不相符。除了缺乏来自领导层的支持、资源和行动权以外,道德企业家在工作中还面临着三大障碍。首先,一个以发行软件产品为中心的环境很难优先考虑道德问题。其次,人工智能的道德评价和伦理规范通常很难被量化,尤其是在一个根据指标来确定目标完成度的环境内。最后,团队的频繁重组导致道德企业家难以获取重要信息,更不用说维持对工作至关重要的人脉关系了。

  阿里认为,要想在“非层级化”的科技行业中推进负责任的人工智能,就需要建立正式的科层制。科层制可以制定规则。例如,要求在产品开发过程的一开始就进行道德审查,并且赋予道德团队执行权。这样,道德企业家就不必只运用说服能力和人际交往策略,让同事相信其工作的价值。除此之外,科技企业应该鼓励产品团队与监管团队紧密协作。目前,科技企业的奖罚制度指标多包括团队推出创新产品的速度,但这不利于达到鼓励员工缓慢、仔细、负责任地检查技术的道德问题的效果。科技企业需要出台一套鼓励减少偏见或重大失误的奖罚机制,从而培养员工坚守人工智能道德准则的习惯。只有这样,科技企业的公平性承诺才会不再与现实脱钩,真正的人工智能道德制度变革才有可能发生。

  (刘雨微/编译)

责任编辑:崔博涵
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026