人工智能治理面临挑战
2024年05月31日 15:46 来源:《中国社会科学报》2024年5月31日第2903期 作者:本报记者 翁榕

  

 

 

    人工智能法是当前国际上的立法热点。2024年3月13日,欧洲议会正式通过了《人工智能法案》(Artificial Intelligence Act),这是全球首部人工智能领域综合性监管法规,将会给致力于研发人工智能系统的企业带来重要影响。围绕与人工智能有关的治理挑战,本报记者采访了美国乔治城大学(又译“乔治敦大学”)法学院教授阿努潘·钱德(Anupam Chander)和美国路易斯维尔大学工学院副教授罗曼·扬波尔斯基(Roman Yampolskiy)。

  关注人工智能相关风险

  《中国社会科学报》:您认为应该如何防范与人工智能有关的风险,例如侵犯隐私和算法偏见等?

  钱德:目前存在两种类型的风险。一种是人们比较熟悉的普通风险,例如虚假信息、定向骚扰或定向营销等。另一种是人们不太熟悉的风险。例如,人工智能可能发展出自主意识并反抗其控制者。在一些人看来,为第二种风险感到担忧是没有必要的,他们认为这种担忧纯属臆测和干扰项。但我认为,应该同时关注这两种风险,有必要确保使用现有法律法规来对抗骚扰、攻击或操纵行为,并确保在使用算法时能保护隐私、减少偏见,帮助人工智能作出非歧视性决策。这也意味着,必须要求开发者尽可能规避上述风险、对不良使用情景进行预测、做好系统设置以检测行为不良者且要采取纠正措施。我们需要在对相关风险有所预见的情况下建立管控制度,有针对性地做好准备。

  我将第二种风险称为存在性风险,这种风险非常难以应对,它关系到人们究竟希望人工智能系统发展到何种程度。当然,我们很难要求科技企业放缓发展步伐,但或许可以考虑要求企业设置紧急停止开关或仔细思量如何约束人工智能系统的自由意志等。人们还必须考虑人工智能对就业市场的影响,这是个大问题。由于在某些领域人工智能可以比人做得更好,所以我们需要考虑未来对这类从业者的需求是否会减少。更有甚者,如果人工智能的决策能力变得和人类一样强大,那么对于决策者的需求量是否也会降低?这些都是人们必须思考的极为严肃的问题,我们需要为技术进步做好准备。

  《中国社会科学报》:为什么您认为人工智能和超级人工智能会超出人类的掌控范围?人工智能会对人类的生存造成威胁吗?

  扬波尔斯基:如果人工智能系统决定接管世界,人类将无能为力。与人类相比,人工智能思考速度更快,记忆力更好,甚至能解决人类无法解决的某些问题。在我看来,人不太可能无限期地控制超级人工智能。但没人知道人工智能是否会对人类的生存造成威胁以及这种威胁何时出现。我们不知道这种情况到底会不会发生。

  《中国社会科学报》:您认为我们应该如何理解前面提到的生存威胁,它指的是人类会被人工智能消灭吗?

  扬波尔斯基:就这里所说的生存威胁而言,人类会被人工智能消灭是一种易于被大众理解的可能性,但还有其他同等可怕的情况。例如,人类拥有社会、创造文化的能力被摧毁。好比动物园里的动物,虽然没被杀死,但它们过的可能不是其想要的生活。

  《中国社会科学报》:有人认为,人工智能降低了网络犯罪难度,使其更难以被检测到。您认为应该采取哪些措施来对抗不断演变的威胁?

  钱德:有人利用人工智能开发恶意软件,但也有人利用人工智能来对抗恶意软件、努力防范和阻止恶意使用人工智能的行为。这是善与恶之间的竞赛,也是自互联网诞生之初就存在的问题。历史上,人类在打击网络犯罪方面既取得过成功,也遭遇过失败。我们不但要充分利用现有法律法规来打击相关犯罪活动,而且需要鼓励各国加入、采纳和执行相关规则,确保各国有执法能力。此外,也有必要在国际层面上就识别黑客组织、打击黑客行为达成一致。

  超级人工智能开发不宜过快

  《中国社会科学报》:您认为应该如何通过国际合作防止在人工智能领域出现“逐底竞争”现象,并使有关各方不会为了追求经济利益而降低人工智能的安全和伦理标准?

  钱德:人工智能是否安全与各国利益攸关。即使各国都在竞相部署人工智能,但它们也都注意到了人工智能可能带来的各种风险,并在寻找应对之道。但迫于竞争压力,各国监管人工智能的严格程度会有一个上限。我不认为会有国家为了审视风险问题而放慢发展人工智能的步伐。人工智能已经成为全球竞争热点,一般而言,全球层面的地缘政治问题很难找到最优解,此类问题不是轻易就能解决的。

  《中国社会科学报》:这是否意味着我们应该放弃控制人工智能,还是说有其他出路?

  扬波尔斯基:我们可以选择不去开发超级人工智能,只开发解决特定问题的狭义人工智能,也就是弱人工智能。这是适用于特定应用程序或任务的人工智能,被编程为执行单一任务,基于有限的参数、约束和上下文来模拟人类行为。例如,面部识别、语音和语言识别以及自动驾驶汽车所使用的人工智能程序。这些都是相对安全的。人们理解它们的意图,也大概知道该如何控制这些系统。而通用人工智能或者说强人工智能、深度人工智能进化成超级人工智能会很快。届时,现有的标准测试、监控和管理方法将不再适用。所以,在搭建起有效的安全机制之前,我建议推迟所有通用人工智能系统的研究。

  《中国社会科学报》:您认为这能够实现吗?毕竟有许多企业已经在开发通用人工智能。

  扬波尔斯基:我只是认为这么做会比较好,但相关企业不太可能停止开发活动。

  加强人工智能治理国际合作

  《中国社会科学报》:欧洲议会最近通过了《人工智能法案》,这是否会产生“布鲁塞尔效应”,即各国可能会将其人工智能治理政策与欧盟标准对齐?

  扬波尔斯基:这是非常有可能的。但我对通过法律解决安全问题持不太乐观的态度。欧盟的《人工智能法案》并没有直接且充分地应对高级系统的问题,它主要关注现有系统涉及的隐私、偏见、深度伪造等问题,与超级人工智能系统和人类受到的生存威胁关系不大。

  《中国社会科学报》:您认为我们应如何设计道德框架或治理模型,以有效监督超级人工智能系统的开发和部署?

  扬波尔斯基:这是一个复杂的问题。人们耗费了上千年的时间试图制定大家都认同的道德标准,但环顾世界,我们会发现正是因为没有制定出一个好的行为框架,所以很多争斗依然存在。这也是我对人类掌控人工智能持怀疑态度的原因之一。如果我们人类内部都无法达成一致,不能遵循伦理道德来行事,那和一个与我们在架构、价值观等方面都如此不同的人工智能达成一致就更是难上加难。

  在我看来,应该出台一个更广泛的全球人工智能治理框架。例如,各国能够合作并达成共识,执行一个各方都同意的暂停令。但至少目前我没有看到这种普遍的共识。有些人认为这根本不是问题,应该尽快开发。我刚刚发表了一篇关于监控人工智能训练运行限制的论文,欢迎更多学者检验我在文中讨论得出的结果、发现文中的错误。我会非常愿意得知我错了,得知有些我认为不可能做到的事实际上是可以做到的。

  《中国社会科学报》:法律和文化背景的差异可能影响各国对待人工智能的方式,您认为应该如何在有效管理人工智能使用的同时考虑到这些差异?

  钱德:首先得思考各国之间的具体差异是什么,也许有些国家对某种歧视特别敏感,而其他国家并不存在这方面的问题。例如,印度可能更关注种姓歧视,美国可能更关注种族歧视,而性别歧视可能是全球范围的问题。因此,我认为每个国家都需要确保其人工智能使用规则与人权方面的法律规定相一致。此外,每个国家都有自己的文化规范,这些规范应该嵌入到法律中,而人工智能系统也必须遵守这些规范。至于可操作性问题,我的初步建议是,因为各国法律不同,所以开展全球性业务的科技企业需要遵守不同的规则,即使这样做代价更高、更烦琐。

  《中国社会科学报》:您预测在未来十年,人工智能领域的国际法将有哪些关键发展?立法者该如何应对未来的挑战?

  扬波尔斯基:已经有一些立法者试图通过法规来限制尖端系统的开发,比如限制计算量或训练能力,但我认为这么做不太可能成功。不同的司法管辖区有不同的规定,欧盟通过了某项法规,并不意味着英国、美国会出台相同的规定,世界上总有一个地方可以让人不受限制地开展研究。从历史上看,人类将许多行为规定为非法。例如,发送垃圾邮件是非法的,制造使用计算机病毒和勒索软件也是非法的。但宣布这些行为是非法的并没有解决问题,问题依然存在。就网络安全而言,攻击者有反复尝试的机会。某家企业沦为勒索软件的受害者后可以通过支付赎金获得恢复正常营业的机会。但面对人类的生存危机,我们没有第二次机会,我们无法担负任何一场意外。

  《中国社会科学报》:在弥合发达国家和发展中国家在人工智能领域的差距方面,您认为联合国等国际组织可以发挥何种作用?

  钱德:发展中国家的治理能力可能不够强,再加上它们一般都面临其他更为迫切需要解决的问题,所以可能还没有条件监管人工智能。我认为联合国可以做很多事情。例如,为发展中国家提供科学技术方面的帮助,以及帮助各国在人工智能立法方面达成一致。虽然我不认为各国真的会制定一套统一的规则,但在处理人类面临的生存威胁方面,联合国可以发挥重大作用。

责任编辑:崔博涵
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026