规范人工智能伦理亟须国际共识
2019年07月31日 08:45 来源:《中国社会科学报》2019年7月31日第1746期 作者:记者 王俊美

 

  ■7月25日,2019青岛国际软件融合创新博览会的人工智能展区,工作人员正在调试智能机器人。图片来源:CFP

  随着人工智能技术的快速普及,许多民众对人工智能引发的伦理困境表示担忧,许多国家和国际组织也在积极探索人工智能治理的原则与路径。日前,本报记者就人工智能的恶意使用、伦理规范的制定以及国际共识的达成等问题采访了相关学者。

  避免人工智能控制困境

  英国牛津大学人类未来研究所研究员安德斯·桑德伯格(Anders Sandberg)认为,人工智能将成为改变社会的普遍技术,因此很有必要形成人工智能伦理准则。目前,人工智能存在的根本问题可以用“科林格里奇困境”(Collingridge dilemma)来形容,即一项技术的社会后果不能在技术生命的早期被预料到。然而,当不希望的后果被人们发现时,技术往往已经成为整个经济和社会结构的一部分,人们甚至很难对其加以控制。因此,我们需要具有充分灵活性的伦理准则,既能提示人们在引导技术的发展时避免一些不良影响,又不会过度制约人工智能的未来发展。

  在英国格拉斯哥卡里多尼亚大学荣休教授休·麦克拉克伦(Hugh McLachlan)看来,所有知识、工具和技术本身都是道德中立的。根据使用者的动机和意图,它们可能会被恶意利用。例如,无人机在人工智能的操控下可能会从事犯罪活动,人工智能也会轻易泄露个人隐私或国家机密。

  澳大利亚昆士兰科技大学法学高级讲师迈克尔·圭浩特(Michael Guihot)分析称,目前恶意使用人工智能已经对数字安全、物理安全和政治安全造成广泛的威胁。

  加强国际合作

  经合组织出台的一项关于人工智能的指导原则提出,人工智能应通过促进包容性增长、可持续发展,使全人类受益;人工智能系统的设计应尊重以人为中心的价值观和公平性;人工智能系统应具有透明度,并负责任地披露有关信息;人工智能系统在其整个生命周期内必须以稳定、安全的方式运行,且能不断评估和管理潜在风险;开发、部署、运营人工智能系统的组织或个人,应根据上述原则对系统正常运作负责。

  然而,不同社会对伦理规范的定义有所不同。应如何就人工智能的伦理原则达成共识?圭浩特表示,鉴于人工智能涉及的范围非常广泛,因此在我们能够确定共同的伦理规范之前,与人工智能伦理相关的决策还不能做到十分具体。目前,国际上形成的一系列报告和指导原则传达了重要的价值观和规范,有助于在世界各国之间建立信任。

  在桑德伯格看来,虽然短期来看,国际社会很难就人工智能的总体伦理准则达成共识,但仍可以共同制定涉及安全问题的基本规则。例如,全球可以共享确保人工智能系统安全性和可预测性的方法。虽然不同的文化可能对如何使用人工智能存在不同的看法,但没有人希望人工智能对人类造成危险或以不可靠的方式行事。因此,可以通过国际条约推动形成一套开放共享的安全模式,并将其作为人工智能伦理原则的组成部分。

  麦克拉克伦对本报记者表示,我们期待全球就涉及人工智能犯罪行为的问题达成一致,同时希望全球能够在制定人工智能法律方面展开国际合作。从长远来看,国际合作不仅具有公正性,还应符合所有国家的普遍利益。

  (本报记者 王俊美)

责任编辑:刘远舰
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026