破解人工智能道德难题
2018年10月31日 09:14 来源:《中国社会科学报》2018年10月31日总第1564期 作者:姚晓丹/编译

  本报综合外媒报道 10月24日,法国国家科学研究中心官网发文表示,人工智能技术在发展和应用过程中,可能会遇到一些道德困境,如在极端情况下,自动驾驶汽车可能要选择牺牲车内乘客还是伤害路上的行人。来自法国国家科学研究中心、美国麻省理工学院、美国哈佛大学和加拿大不列颠哥伦比亚大学的研究人员组成了一个研究团队,在2016年推出了在线调研平台“道德机器”(Moral Machine),用于调查互联网用户对“最公平”选择的看法。

  经过18个月的调查,研究人员收集了来自全球233个国家和地区互联网用户的近4000万份答卷。研究人员分析记录了他们的道德偏好,结果发现,参与调查的互联网用户在选择时,既会遵循一些具有共性的标准,也表现出了不同的道德倾向。

  被调查的互联网用户遵循的共同标准主要体现在三个方面:第一,选择保护人类而不是动物;第二,选择保护生命数量更多的一方;第三,选择保护更为年幼的一方,尤其是保护婴幼儿和孕妇。与此同时,部分互联网用户展示出一些较具争议性的道德偏好。例如:与体格强健的人相比,超重的人被放弃的概率相对更高;与富有的人相比,贫穷的人被放弃的概率更高等。

  研究人员希望通过此项调研,为相关管理部门以及从事人工智能机器设计和生产的企业提供参考资料,使他们具有关于网民道德偏好的全球视野。此外,任何人都可以通过公开的网站查询到此项调研的相关结果,进而丰富和深化自己对于道德的理解。

  (姚晓丹/编译)

责任编辑:王宁
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026