人工智能治理需具有前瞻性
2022年07月15日 08:13 来源:《中国社会科学报》2022年7月15日第2449期 作者:王悠然/编译

  本报综合外媒报道 近年来,国际社会在人工智能立法方面取得了较为明显的进步。如何进一步完善人工智能治理,成为国际学界普遍关心的问题。

  据美国麻省理工学院官网6月28日报道,该校计算学院主办的人工智能政策论坛于今年早些时候在线举行了第二届研讨会,来自高校、政府和商业机构的代表围绕以下四个议题展开探讨:人工智能法律设计;对人工智能系统的大规模审计和监测;临床医学人工智能的数据分享和隐私问题;使自动驾驶汽车切实造福于人。

  美国哈佛大学国际法教授乔纳森·齐特林(Jonathan Zittrain)谈到,从以往的经历来看,政府在新技术发展初期就积极发挥作用是一件好事——互联网扩张时期的自我监管模式有其局限性,因为企业、行业、公众的利益不完全一致。当前的挑战是,对新兴技术的监管似乎可以分为两个阶段:在第一个阶段,作任何判断都为时过早;到了第二个阶段,采取任何措施都为时过晚。就人工智能而言,许多人认为我们尚处于第一阶段,但考虑到两个阶段之间没有中间地带,有必要采取一定的监管措施。

  在关于人工智能法律设计的讨论中,信任问题被反复提及。肯尼亚内罗毕大学教授、肯尼亚信息与通信部前副部长比特安格·纳德莫(Bitange Ndemo)说,“如果一个人一直和我讲真话,我会认为他/她是诚实的。类似地,如果人工智能一直提供真实信息,我会认为它是可信任的”。欧洲议会副议长伊娃·凯利(Eva Kaili)表示,“在欧洲,人们使用药品时很放心,因为他们知道药品是经过检测、受到监管的。人工智能也应达到同等的可信任程度。建立对人工智能的信任不仅能促使人们以安全的方式更多地应用人工智能,随之产生的更多数据也有利于人工智能自身的发展”。

  随着人工智能被应用于越来越多的领域,人们需要应对新兴技术带来的社会和伦理挑战,包括隐私、公平公正、透明性、可问责性等方面的问题。例如,在医疗领域,新技术展现出提高治疗质量和效率的巨大潜力,但技术专家、政策专家和医学专家还需探索如何减少高质量数据的访问壁垒,使医学研究成果更具创新性和包容性、更加安全可靠,同时尊重患者隐私。与会者呼吁,提升科研用途数据的可及性,其途径包括更新监管制度以促进数据分享、为私营医疗机构提供更多用于数据监管的资金、减少研发人员获取联邦医疗数据的障碍等。与会者还建议,学界必须仔细审视数据分享的伦理原则。麻省理工学院电气工程与计算机科学助理教授马尔齐耶·加塞米(Marzyeh Ghassemi)表示,“人们已经提出了许多原则,但同时满足所有要求是不现实的,我们必须深思熟虑、审慎权衡”。

  麻省理工学院计算机科学教授亚历山德·马德里(Aleksander Madry)强调,不同实践主体之间的交流与合作,对人工智能政策的制定发挥着重要作用,“人工智能政策论坛的使命就是将科研人员、业内人士、政策制定者及其他利益相关方汇聚在一起,彼此展开真正的对话、了解对方的关切、共同思考解决方案”。

  (王悠然/编译

责任编辑:常畅
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026