健全人工智能监管体系
2021年03月12日 08:18 来源:《中国社会科学报》2021年3月12日第2124期 作者:李遇/编译

  本报综合外媒报道 英国兰卡斯特大学官网近日报道称,该校研究人员发文呼吁健全监管体系以确保人工智能的可信赖性,减轻民众对人工智能的不信任感。

  该校数据科学副教授布兰·诺尔斯(Bran Knowles)谈到,由于人们日益认识到目前缺乏有效的人工智能监管体系,因此对人工智能的信任度下降。在关于“值得信赖的人工智能”的研究中,科研人员一直聚焦于使用者对人工智能的信任需求,却明显缺少关于普通民众对人工智能信任的严肃讨论。加强人工智能的透明性、以更易懂的方式解释人工智能如何运行,有助于减轻民众的担忧。事实上,让民众能够真正信任人工智能的唯一方式是建立一套监管生态系统。民众一般不会担心食品、药物的可信赖性,因为他们相信,有相应的监管系统,违反安全协议的行为会遭受惩罚。而对于人工智能,民众需要同样的保证。

  研究人员基于结构化理论和制度信任研究,设计了一个人工智能民众信任模型。可进行外部审计的“人工智能证明资料”(AI documentation)在该模型中发挥着至关重要的作用,为内部审计者和外部监管者提供信息,以评估人工智能是否遵守可信赖性原则。但研究人员提醒,不能依赖“人工智能证明资料”直接培养民众对人工智能的信任。监督人工智能可信赖性的责任必须由具有高技术水平的监管者承担,否则“人工智能情况说明书”很可能成为像手机应用软件的“条款和条件”一样的形式化机制,很少有人真正阅读和理解它。诺尔斯表示,人工智能会对真实世界的人产生实质性的影响,需要切实的问责制度,确保无处不在的人工智能帮助世界变得更好。

  (李遇/编译

责任编辑:常畅
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026