欧洲学者提出探索人工智能治理规范
2018年02月07日 09:02 来源:《中国社会科学报》2018年2月7日第1390期 作者:本报记者 姚晓丹

  人工智能技术得到了越来越广泛的应用,但也带来了一些道德伦理和法律方面的争议。英国剑桥大学官网2月2日刊发该校生存风险研究中心执行主任肖恩·欧·埃吉尔泰革(Seán ó héigeartaigh)和计算机科学与技术系研究员马泰亚·亚姆尼克(Mateja Jamnik)等人撰写的文章表示,人工智能技术近年来发展较快,如果在社会层面上缺乏整体详细规划,将会带来消极后果。本报记者就此采访了有关专家学者。

  人工智能发展带来挑战

  埃吉尔泰革和亚姆尼克等表示,从股票交易到房地产价格确定、从检测欺诈行为到不同语言间的翻译工作、从创建每周购物清单到预测受欢迎的电影类型,人工智能已经在诸多领域得到了应用。在不久的将来,我们还将使用人工智能程序来了解人们的健康状况,发明新的药物和治疗方法;自动驾驶汽车将改变交通系统和城市规划方式。机器提高我们的生产效率,并帮助我们预测社会风险。

  然而,如果我们不在整个社会层面上仔细规划,人工智能技术的发展也可能会带来消极后果。学者提出,支撑自动驾驶汽车的技术可能会带来战场上的危险新武器;使工作自动化的技术可能会导致许多人失业;利用历史数据进行训练的算法程序可能会延续甚至加剧基于种族或性别的歧视;需要大量个人数据的系统,例如医疗保健系统,可能会导致人们的隐私受到损害。

  埃吉尔泰革和亚姆尼克等提出,面对这些挑战,不仅需要自然科学领域的专家学者贡献自己的智慧,也需要艺术、人文和社会科学领域的知识,需要深入研究与人工智能有关的政策和治理问题。

  将道德准则嵌入人工智能程序

  就此问题,法国国家科学研究中心主任研究员塞巴斯蒂安·科涅奇内(Sébastien Konieczny)在接受本报记者采访时表示,人工智能程序也有它们的弱点。如许多人工智能程序都具有深入学习后得出结论的功能,但这些人工神经网络就像是在黑匣子里运行一样,人们难以得知它做出决定的原因。可在实际应用中,有关机构或个人需要知晓所做决定的原因,以保证每个人都得到公平对待。尽管已经有研究人员在尝试对人工智能黑匣子的“可解释性”进行研究,但要从中有所发现则比较困难。

  人工智能程序不是完全中性的,它们也会受到偏见的影响。科涅奇内认为,“如果一个系统是由大量来自人类言语的数据驱动的,那么它会再现人类的偏见就毫不奇怪了”。人工智能程序不仅会受到系统设计者自身所持观点的影响,也会受到那些为人工智能程序提供培训的人的影响。

  在大范围使用深度学习技术之前,制定并向人工智能程序灌输一些道德规则很有必要。不过,学者认为,将“判断结果不取决于性别、年龄、肤色”的规则传授给人工智能程序目前还有困难。

  最终决定权应由人掌握

  在科涅奇内看来,目前应该建立具体的伦理问题管理委员会,制定有关人工智能和数字技术的研究规则。这可以帮助研究人员评估哪些界限是不可跨越的,防止研究工作发生不当的偏移。

  埃吉尔泰革和亚姆尼克等表示,不能因为机器拥有大量的信息,人们就认为它们更可信。从实践结果来看,应该将最后的决定权留给人类,而不能完全依赖人工智能。因此,应该将系统配制成能够给出几个不同解决方案的形式,如果可能的话这些解决方案中还应该附有相关的原因及其后果,并让人类做出最终选择。

  学者还提到,机器人既不善良也不卑鄙,更不应该有个人目的或计划,它们应该按照我们希望或者设计的那样完成工作。当人工智能出现一些意外副作用时,我们可以解决问题,不让这些副作用造成危险。如果机器人的活动造成了死亡或者刑法上规定的重大案件,为了给予遇难者应有的赔偿,有必要建立一个由制造或拥有这些机器的公司推动的保险基金。比起控制机器人,对那些控制机器的私人公司进行规制更显重要。

责任编辑:王宁
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026