2023年7月5—7日,习近平总书记在江苏考察时强调:“中国式现代化关键在科技现代化。”人工智能是科技现代化的代表性领域,然而人工智能技术的迅速发展和广泛应用也带来了数据安全、算法偏见、技术依赖、信息失真等风险,亟须通过法治方式进行融贯性治理,使人工智能这一新业态更加契合中国式现代化的发展需求。
人工智能具有双重面向
人工智能既可以推动科技进步、促进社会公平、提升社会福利,也可能给个人权利、公共利益和国家安全带来威胁。
人工智能的积极效用不言而喻。首先,它对科技进步具有推动作用。人工智能是“新一轮科技革命和产业变革的核心驱动力量”,能够与医疗、交通等有机结合,引发生产方式与生产工具的颠覆性变革。其次,它为实现社会公平提供助力。人工智能具有很强的解决法律问题的能力,以再犯风险评估为例,其本质是利用有限信息对未来活动进行预测,利用人工智能收集和分析信息可有效降低“错判”“错放”的概率,并使“偏见”和“歧视”更易识别。最后,它对提升社会福利具有赋能作用。人工智能有助于扶助弱势群体,例如,可为老年群体提供技术辅助,对其进行情感赋能、认知赋能、行动赋能、社会参与赋能,使其更有尊严地生活。
人工智能也带来一系列风险。首先,人工智能有可能侵害公民个人信息权益。例如,ChatGPT使用人机交互的聊天数据作为训练语料,可能泄露个体的私密信息、敏感信息。其次,人工智能有可能侵害知识产权。从ChatGPT被“投喂”数据的来源看,AI公司往往爬取公共互联网上的各类数据集,但并不一定获得了相应的授权。从ChatGPT生成的内容来看,往往是对现有语料、文本、图像或音频等的重新组合,有可能侵害既有作品的版权。最后,人工智能有可能对数据安全、网络安全和国家安全产生威胁。在人机交互过程中,不仅存在着数据泄露、数据损害等数据安全风险,还存在着被不法分子利用并生成恶意代码、钓鱼邮件的网络安全风险,甚至存在着重要数据外流的国家安全风险。
法治为人工智能发展提供保障
基于人工智能的双重面向,我们既要释放人工智能的内在价值与技术潜力,又要恪守伦理底线、道德原则和法律规则,需要法治为人工智能发展提供保障。
人工智能是一种具有新型基础设施属性的通用技术,生成式人工智能的涌现更是带来了生产力的颠覆性革命,深刻变革着生产方式、生活模式、科研范式。目前我国人工智能技术与产业正处于发展阶段,未来应“在发展中监管,在监管中发展”,通过法治思维与法治方式进行渐进式治理,在发展与监管之间寻求平衡。人工智能产业的发展,既需要有效的市场机制,又需要健全的法治框架让市场主体充分参与竞争,产出满足市场需求的人工智能产品,推动该产业的高质量发展。既要给人工智能的发展留下自由竞争的空间,又要保障在法律框架内,尊重人的尊严和主体性,通过制度安排促进人工智能的自由发展。
推动人工智能产业的健康发展,仰赖于法治的支持和保障。由于人工智能技术和产业的发展十分迅速,人们受自身理性与认知所限难以在技术层面全面精准地理解人工智能,并且法律自身具有滞后性,所以难以在国家层面通过立法的方式推进人工智能发展。因此,在法治框架下通过政策性文件、地方立法、部门立法及时高效地对人工智能技术发展所需要的制度激励进行规范,是较为可行的方式,且实践中基本上沿着这一思路开展。国务院于2017年出台的《关于印发新一代人工智能发展规划的通知》,通过政策性文件的形式明确了我国发展人工智能的总体思路、战略目标和重点任务,并从法律法规、伦理规范、技术标准等方面为发展人工智能提出保障措施。与此同时,我国部分地区积极开展地方立法,就人工智能的发展与规范问题先行先试,如上海的《上海市促进人工智能产业发展条例》。据不完全统计,我国至今已有60余部地方规范性文件,从不同角度对人工智能产业发展进行了规定。
实现人工智能的融贯性治理
人工智能技术和产业的发展,既需要国家的引导、规划和支持,也需要国家整合技术与制度对其进行融贯性治理。
一方面,可通过技术方案来制衡人工智能技术。技术本身是“中立”的,关键在于如何运用,它既可以被用来为恶,又可以被用来行善。人工智能技术之间可以相互制衡。我们可以使用AI生成检测器对人工智能生成内容的真实性进行检测,可以采用数字水印技术来标注人工智能所生成的内容,以及使用更先进的人工智能技术对人工智能的运作机理、计算架构、神经元行为进行解析以测量人工智能的可解释性。此外,区块链也是治理人工智能技术的重要工具。区块链要求所有节点就区块信息达成一致共识,以确保被添加到区块链的最新区块都经过本地节点的验证通过,可将该共识机制应用到对人工智能技术的治理中。对重要的资源和决策、关键数据和关键性操作,以及人工智能的能量系统,可以交由区块链管理——让人工智能拓展上限,让区块链守护底线。
另一方面,可通过制度设计来制衡人工智能技术。在理念层面,将伦理规范注入人工智能的研发、设计、运行之中,建设有道德的人工智能。应充分发挥伦理规范的先导性功能,通过监管部门、科技企业、科研人员、法学家、公众之间的协商与对话,最大限度地凝聚共识,形成具有约束力的伦理规范,并将该伦理规范内嵌于人工智能产品中。在技术标准层面,积极推动人工智能技术标准的制定,指导相关技术的具体操作与实施。相对于伦理规范,技术标准更具有微观可操作性,应当建构涉及数据质量、算法模型、性能评估等方面的技术标准,明确研发者、设计者、应用者等各方主体在人工智能产品生命周期的权利、义务与责任,确保人工智能产品的安全与质量。在监管层面,推动政府对人工智能可预见或明显的风险进行有效监管,探索多元监管工具体系。通过备案制度、强制披露制度、认证制度等对人工智能发展状况进行监测,保障人工智能的发展始终尊重人的尊严和主体性地位。
总之,人工智能是引领新一轮科技革命和产业变革的关键所在,将会成为支撑未来社会发展的“技术基础设施”,给人类的生产、生活与交往方式带来革命性影响。在中国式现代化进程中,我们要充分抓住人工智能发展的历史机遇,释放人工智能技术在生产、劳动方面的潜能;同时也要警惕人工智能潜在的法律风险,综合运用技术方案、伦理规范、技术标准、政府规制、国家立法等手段,在法治轨道上对人工智能进行融贯性治理。
(本文系国家社科基金重大项目“中国式现代化进程中加强新兴领域立法研究” (23ZDA076)阶段性成果)
(作者系厦门大学法学院教授)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>