积极预防人工智能负面效应
2020年04月07日 00:35 来源:《中国社会科学报》2020年4月7日总第1901期 作者:宫楠

  信息科技的飞速发展和广泛应用,孕育了“智能社会”这一特定的技术与社会建构及社会文化形态。一种新型的人工智能驱动的经济和社会模式正在由无处不在的数据和算法催生而出,同时也带来了一些法律和伦理问题。互联网、大数据、人工智能等技术的应用,带来的隐私保护、虚假信息、算法歧视、网络安全等问题,引起社会广泛关注。

  智能社会面临新的法律和伦理问题

  一是人工智能的去主体性可能导致价值属性的消解。人被视为拥有不可替代价值的主体,任何被纳入该群体的人,只需在法律规定主体范畴内,均可获得当然的主体权利。但人工智能由于无法纳入某一确定共同体而获得统一规则化,因而也导致其主体性无法确定。随着技术迭代,由于智能本身缺乏主体性基础,使得其无法作为任何法律规则调整的对象,导致人工智能的道德责任和法律责任基础亦无从确定。同时,人类尽管尚未被人工智能所取代,但随着人工智能介入的加深,人类将越发深陷于技术所编织的罗网之中。技术空间裹挟下的人类则可能产生异化,从而导致个体在原有主体价值属性上的消解。

  二是人工智能可能侵蚀原有人类社会基本结构。罗尔斯提出的社会基本正义结构依托于一个稳定的互动结构,即理想化的市场需要保持足够自由来保证参与者的竞争能力,使市场自生自发秩序持续演进的需要得到满足。但如果是高度中心化的人工智能体系,则将主要借助于数据计算中心来支配所有接入要素,数据主义或许将构成“数据巨型机”的意识形态。尽管社会运行效率得到提升,但是“数据巨型机”一旦缺乏限制和管控,就可能造成人与数据间关系破裂,进而可能导致个人自由的隐形丧失,“楚门效应”也将由此产生。

  三是人工智能可能带来人类社会基本价值观念与公平正义观的转变。伦理假定的基本价值是现代法律正当性的基础,而随着人工智能介入程度的加深,个体可计算的属性愈加明显,原有的公平正义基本价值将开始从抽象的人格向具体的数字化人格转化,人类原有的社会价值基础通过计算渗透,使得评价的权威由抽象的道德权威转化为具体的人工智能算法,这将动摇现有人类社会法律基础。由于数据交换可能变成新的价值创造源,因此个人数据极易遭到主动吸收利用,个人数据控制和管理的弱化也导致社会生活中不断出现新的伦理冲突与道德悖论,这些都构成了对现行主流社会道德价值体系的冲击。

  由于人工智能愈发强大的计算能力和对现有社会结构及价值体系的不断侵蚀,可能导致对个体尊严和形象的入侵、算法歧视上的侵害和自身主体价值的消解。如何规范人工智能、资本与权力的合作,重塑公平正义的社会结构和技术结构,成为亟待解决的问题。因此,应基于科技伦理的调适和嵌入,对传统法律制度进行改造,并且从以社会监管为重要内容的政策体系构建入手,建立以社会理性和科学理性为基本内涵的风险控制机制,从而防范人工智能的技术性风险。

  确立伦理标准 加强法律规制

  法律由于天然内含正义的基因,并通过权威性的制度体系设计反映道德的内在要求,在发挥其自身的价值功用实现人们对公平正义期许的同时,将人的伦理诉求从任意和神秘的领域转化为可以把握和预期的理性王国。技术理性中蕴含的正义要素与其具有一致性,这种价值理性内涵为构建人与技术间和谐有序的图景提供了基础。但是,技术内部无法解决现有技术逻辑与基于理念的正义逻辑间的错位。为此,有必要采取预防性措施应对由人工智能引发的负面效应,并通过风险控制机制和因应性制度对其加以引导,以明确人工智能的主体属性,解决其与现行法律间的根本性冲突,实现从伦理规范、法律规则和政策规定等维度构建制度性、法治化的社会治理体系。

  一是确立人工智能伦理道德标准,嵌入人类道德规范体系。道德规范作为特定领域针对特定目的的内化价值追求,能够使人工智能系统受到诸多价值标准和规范的约束,在面临道德过载风险时受到在价值理念上以人为中心的法律的制约。因此,应明确需要嵌入的规范和价值并加以协调,避免道德伦理的失范和法律的失序。为此,应通过建立完整的道德规则和法律规范,促进技术伦理由隐性向显性转化,主要手段包括构建和编写人工智能与人类活动相协调所适用的基本规则。其原则可以概括为:1.人类利益原则,即保障人的权利和自由,强化隐私保护,优化人类福祉和自然环境,寻求科技进步与社会、自然和谐发展的最大公约数;2.责任原则,将人工智能的应用纳入监管范围,通过明确主体责任,识别、预防和减轻负面效应;3.比例原则,设定合理阈值,既要防止高于阈值上限时的道德过载,亦要对低于阈值时的道德负担不足以及阈值过低时的法律规制寻求合理的比例原则;4.正义原则,将社会的伦理原则嵌入人工智能系统,确保算法的透明以避免算法歧视,保障技术权益在社会范围内的公平合理分配。在人工智能价值权重设计阶段,应优先考虑利益相关群体共同分享的价值体系,技术上要满足不同空间和时间下价值和规范发生变化的可能性,保证人工智能设计的伦理价值与人类的规范相统一。

  二是加强对人工智能的法律规制。在法律领域人工智能不具有主体资格的前提下,通过围绕人工智能以机器为中心的特性进行制度设计,将正义作为衡量算法公平公正的标尺,从构建人工智能法律规则的维度实现算法的透明性、可解释性,使资源优化配置的功能与价值观负载的制度相匹配。就法律规则整体建构而言,我们可以在弱化复杂伦理困境的前提下构建归责原则,系统考量责任主体确定、多主体责任分担比例、因果关系认定等诸多要素,在立法、司法裁判和法律效果评价环节嵌入伦理性考量因素,进而将具体的道德考量因素转化为可以实施的法律原则乃至法律规则。

  三是强化制度创新与政策指引。人工智能在应用于社会治理、提升公共服务有效性的同时,也可能导致相关管理部门与社会间产生“技术鸿沟”。由于算法歧视所导致的非理性决策,以及不同主体对人工智能发展不同程度上不相称的告知、分析、审查和监管能力,使得技术的高速发展容易产生溢出效应,导致社会和公民利益受损。为此,需要加强不同环节中不同主体间的深度合作,建立科学评估与伦理矫正机制。我们应从构建配套管理机制等方面入手,对社会治理理念、技术能力、行动流程等进行治理理论和制度的创新,作出整体性、全局性的战略部署,制定加强产业促进与监管的政策法律,将技术创新上升为“规划理性”的法价值范畴,逐步强化价值发现中人的能动性干预和控制。

  随着人工智能的快速发展,一些道德悖论、伦理矛盾和司法困境不断浮现,对现有伦理标准和法律体系带来挑战。科技发展与社会进步在追求效率的同时,应兼顾公平与正义,通过立法等方法,明晰人工智能的相关法律责任制度、明确数据信息保护与隐私权保护、强化涉及人工智能发展的知识产权保护,建立起全流程的立法监管体系。只有重视对控制风险功能的法治化,辅以伦理为先导的社会规范调控体系,以及通过限制机制、禁止机制以及惩戒机制对人工智能的研发、使用和传播加以规制,才能真正使科学技术的智慧之光与伦理的人性之光、法律制度的理性之光共同在智能时代交相辉映。

  (本文系中国—上海合作组织国际司法交流合作培训基地研究基金项目(19SHJD017)、黑龙江大学对俄问题研究专项项目(DEY1804)阶段性成果)

  (作者单位:黑龙江大学俄罗斯语言文学与文化研究中心、法学院)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026