发展负责任的人工智能
2022年03月14日 09:43 来源:《中国社会科学报》2022年3月14日第2366期 作者:本报记者 王俊美

  随着数字技术的发展,当今社会更需要负责任的人工智能。发展负责任的人工智能有助于推动新一代人工智能健康发展,更好地协调发展与治理的关系,确保人工智能安全可控。3月4日,印度国家软件和服务公司协会“负责任的人工智能”项目负责人拉杰·谢卡尔(Raj Shekhar)于印度观察家研究基金会官网发表文章,就政府如何加强人工智能监管给出建议。

  命令控制式监管效果不佳

  每当资本主义经济自我调节功能失控时,政府会予以干预,以此恢复经济的正常运行以及公众对政府的信任。谢卡尔表示,从历史上看,这种干预措施往往采取法定监管的形式,即政府命令被监管者遵守一定的规则,从而实现特定的监管效果,并对违规行为进行制裁,这是一种命令控制式的监管方法。然而,要形成有效的命令控制式监管方法是需要前提的,例如,企业的发展进程缓慢,需要数十年才能培育出一个新的市场,立法者和监管方有足够的时间和空间来制定“完美”的命令控制式监管方法,纠正市场上出现的功能失调现象。

  在当今世界,新技术层出不穷,各类商业模式如雨后春笋般出现,企业的发展速度飞快,命令控制式监管难以跟上市场的发展节奏。谢卡尔表示,命令控制式监管通常规定了被监管者的重大合规义务,同时还要求建立全新的执法和合规监督机制,这有可能给公共财政带来沉重负担。因此,监管机构必须非常谨慎地确定监管的领域和范围,并把握好监管程度,以避免监管不足或过度监管。为了做到这一点,监管机构必须准确理解监管内容,具备适应监管主体和领域变化的能力。如果无法满足以上条件,那么由此产生的命令控制式监管很可能是效果不佳或无效的。

  人工智能技术正以惊人的速度发展,导致人们无法对有限的创新案例及其带来的风险和收益进行及时、准确的识别。在谢卡尔看来,人工智能的进步与引导其正规发展的监管机制之间存在鸿沟,而且在中低收入国家表现得尤为突出。命令控制式监管可能对其监管主体和范围都不明晰,例如,在欧盟委员会提出的人工智能法规中,人工智能及其使用案例的定义明显含糊不清,引起了民间组织和技术界的大量批评。此类情况,将不可避免地导致监管机构对人工智能创新和企业活动的监管不足或过度监管,引发监管不确定性或行业参与者的不适。由此产生的监管模式,可能会扼杀投资和创新,从而严重损害人工智能行业的发展前景,错失人工智能带来生产力收益和公共利益的机会。

  建立政府主导的行业自我监管制度

  人工智能的快速发展要求形成一个强有力的政府主导的行业自我监管制度。谢卡尔表示,在这一制度下,政府将通过与各利益相关方的严格协商确定监管的目标或原则,而非直接规定监管的手段和方法。与此同时,相关行业会制定适当的标准和行为守则来承担这一责任,然后政府可以选择对其进行认证。这一制度具有较大的潜力,可以将政府监督与行业的专业知识相结合,实现对人工智能市场的快速响应和干预,平衡企业与公共安全利益。

  当然,有的批评者可能会质疑政府主导的行业自我监管制度的有效性,他们认为在任何行业的自我监管中,私营企业的获利动机与公共利益之间总是存在冲突。例如,人工智能产品在采用某种安全标准时有可能带来的巨大成本,有损企业的利益,企业为了削减成本,就会将非标准化的产品推向市场,在这种情况下,行业的自我监管制度显然就会失败。

  谢卡尔从三个方面反驳了上述观点。首先,从根本上看,该制度仍以政府为主导。政府拟议的监管方法是基于明确的框架,要求人工智能行业把具体实践汇报给政府,这需要行业尽职尽责地实现自我监管,做到与政府规定的负责任的人工智能监管目标和原则相一致。其次,发展负责任的人工智能可以带来巨大的市场利益,这一优势变得日益明显。人工智能企业逐渐意识到实施负责任的人工智能实践,能够更好地留住人才和客户,在未来竞标活动中更具优势。最后,全球已有许多民间组织和跨学科智库,开始着手跟踪人工智能带来的各类风险,并提出了相关应对措施,确保人工智能企业将公平、透明、问责等原则列为企业优先事项。人工智能企业越来越意识到,在当今互联互通的世界中,公众普遍对人工智能的不道德应用带来的风险进行谴责。任何不负责任的行为,都会削弱政府对人工智能行业自我监管的信心,迫使政府采取外部措施推动行业良性发展,这成为优化企业行为的强大激励因素。

责任编辑:崔岑
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026