本报综合外媒报道 3月13日,欧洲议会正式投票通过并批准《人工智能法案》(以下简称《法案》)。这部法案在欧盟范围内有效,旨在规范和保障对人工智能的使用,同时进一步确保欧洲企业能够从人工智能技术的快速发展中受益。
《法案》采取风险分级监管方式,将人工智能系统按照风险程度进行分类。根据该《法案》,欧盟将以更加严格的规则来规范具有高影响力且可能带来系统性风险的人工智能系统。此类人工智能系统的开发者需要履行欧盟立法者确定的特殊职责,包括必须对其人工智能系统可能给公民基本权利带来哪些影响进行强制性评估。有关规则既适用于所有“对健康、安全、基本权利、环境、民主和法治构成重大潜在危害”的人工智能系统,也适用于保险业和银行业等行业。此外,《法案》还规定欧盟公民有权对影响其权利的高风险人工智能系统作出的决策提出投诉并获得合理、准确且具有实际意义的解释。
在透明度方面,《法案》要求通用人工智能系统的提供商满足某些特定要求,包括创建技术文档,遵守欧洲版权法,提供用于训练人工智能基础模型的数据等详细信息。上述规则适用于OpenAI的ChatGPT等生成式人工智能系统及相关模型。未能遵守《法案》规定的企业将面临罚款,罚款数额不等,在750万欧元或企业全球营业额的1.5%到3500万欧元或企业全球营业额的7%之间,具体数额取决于侵权行为的性质和企业规模。
为支持欧洲初创企业和中小企业创建自己的人工智能模型,同时减轻来自控制价值链的行业巨头的过度压力,《法案》推动了监管沙盒和现实世界测试。监管沙盒是一种允许企业在风险可控的情况下对创新技术进行有限测试的法律框架。它能够针对创新活动提供个性化法律指导,或为某些创新成果破例,使开发者及公众能够体验新技术在现实生活中的应用效果,仿佛这些技术已被监管机构确认为安全有效一样。现实世界测试指的是在真实的应用场景和实际使用条件下,对创新技术进行测试、监督和评估。根据《法案》的规定,欧盟成员国国内相关主管部门将会设立相应的监管制度,允许企业在将其人工智能模型推向市场前进行开发和训练。
近年来,人工智能技术快速发展,但是在很大程度上仍处于无监管状态,这使得政策制定者难以跟上创新的步伐。欧盟希望其人工智能监管规则能为其他国家树立榜样。但自其被提出以来,有关各方迟迟未能就《法案》内容达成一致,拖延良久,这削弱了欧盟在建立全面人工智能监管法规方面的领跑者地位。当欧盟委员会于2021年4月首次提出《法案》时,并未考虑到ChatGPT等一系列生成式人工智能系统的迅速崛起。这使得谈判陷入混乱,一些国家甚至表示,不愿让《法案》包含针对基础模型的规则,担心这样做会阻碍欧洲初创企业在人工智能技术方面的创新。与此同时,美国、英国等七国集团成员则在人工智能的发展和治理方面取得了很大进展。
据悉,《法案》最早要到2024年底才会正式生效,这使得在监管方面出现了一段空白期。在此期间,企业可以不受《法案》束缚地开发和部署人工智能,且不用担心会受到惩罚,不过欧盟仍然期望有关企业自愿遵守该《法案》的规定。
(刘雨微/编译)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>