构建人工智能风险治理新模式
2022年09月06日 09:33 来源:《中国社会科学报》2022年9月6日第2486期 作者:赵磊

  人工智能的迅速发展正在改变着我们的生活与世界,人类社会正在走向深度智能化。但人工智能又是难以准确预测后果的颠覆性技术,其发展与应用伴随着诸多不确定性和风险,使人类发展面临一系列问题和挑战。我们需要进行国际协商与合作、全球共同治理和防范、协调各种发展要素,基于人类命运共同体理念,构建推动人工智能向善发展的治理模式。

  理论基础

  目前,人类命运共同体理念已越发成为全球共识。面对各种全球性风险,任何国家都无法做到独善其身。人类命运共同体理念的初衷,是全球一体化背景下的各国休戚与共、共同发展。新科技革命驱动下的经济全球化浪潮,把人类的命运紧紧联系在了一起。各国你中有我、我中有你。面对各种风险危机,无人能置身事外、全身而退。同住“地球村”的人类相互依存、休戚与共,已成为事实上的命运共同体。人类命运共同体是对人类时局的准确把握,表达的是世界人民的共同关切。所以,人类命运共同体是不同国家之间超越分歧与冲突而共同发展。并且,人类命运共同体还是人与自然的生命共同体,它超越了人类的狭隘利益,追求人与自然和谐共生,尊重各种生命形式的存在意义和价值。人生于自然,长于自然,归于自然,没有自然就没有人类,人类的命运与自然万物的命运是联系在一起的。

  此外,在未来意义上,人类命运共同体还隐喻着自然生命与人造生命或人工生命的协同发展、命运与共。人类命运共同体为人机融合、人技和谐发展构建了解释框架、指明了方向。人工智能的发展,孕育了新的机器智能形式,将与人类以及其他自然生命形式共同在地球生活。对于该种智能形式,人类在欢呼中透着丝丝恐惧:人脸识别对隐私权的侵犯、机器人与自动驾驶汽车伤人事件、智能武器精准而致命的打击、人机融合的伦理问题、人工智能超越人类的“奇点”理论等,都使人工智能像是悬在人类头顶的“达摩克利斯之剑”,使人类不得不为人工智能的未来感到担忧。无论是现实意义上存在的各种人工智能风险,还是未来意义上人工智能可能带来的种种风险,都需要人类更深入长远地审视人与人工智能的关系,以更高的智慧治理人工智能有关问题。人类命运共同体不仅是人类发展的目标,还是处理各种风险和现代社会治理问题的视域和方法,能够启迪人类智慧,助力人工智能向善发展。

  风险挑战

  人们对人工智能呈现出两种态度:对人工智能产业经济的推崇和对其风险问题的担忧。人工智能风险主要有四个方面,即技术风险、安全风险、伦理风险、环境风险。这些风险又相互交织,呈现出如下特点。第一,人工智能风险的最大特点就是其不确定性。包括当前人工智能设计与算法的不确定性和未来人工智能发展方向和目标的不确定性,具体包括:人工智能风险的生成、发展和传播路径的不确定;人工智能风险内容的不确定;人工智能风险责任的不确定;人工智能风险危害后果的不确定等。第二,人工智能的嵌入性使其风险具有嵌入性特点,人工智能与大数据、互联网、机器人、生物医疗技术等的融合发展,也使得人工智能风险嵌入其中,这就使得人工智能风险无处不在,已具有了生活化、常态化等特点。第三,人工智能不同于一般技术人工物的智能性风险。从理论上来讲,面对其他新技术产品,人们对其研究越多,技术发展越成熟,其风险就会越小,人们对其恐惧也就越少。但人工智能技术水平越高,智能水平越高,自主性越强,其失控的风险可能就会越大,人们也就越担心。第四,人工智能风险还具有社会建构性特点。人工智能在有着实际风险的同时,还会有人去营造、贩卖一些并未实际存在的风险,制造恐惧。

  人工智能的风险及其特点为其治理带来了巨大挑战,具体表现为:责任追溯与责任认定的复杂性;现有人工智能伦理规范技术规定上的趋同性及其对利益域的难以跨越性;数据化背景下人工智能融入生活世界及其引发的对生活意义的争论;具有普遍性的人工智能伦理价值观的可行性问题;技术控制与控制技术形成的悖论在人工智能风险治理上依然存在;等等。相比于传统技术风险,人工智能风险与人的行为关系发生了较大变化。传统技术风险常常与个人的技术行为和经历密切相关,可以通过管理自己的行为来降低或避免风险的发生。而人工智能风险仅靠管理好自己的行为并不能必然降低或消除,由于该风险的普遍性、全球性、渗透性、漂移性等特点,风险的管控需要整体协同,甚至全球合作,这在一定程度上也增加了人工智能风险治理的难度。因此,人工智能的风险治理不单单是个技术问题,也不是仅通过制定伦理规范就能解决的,而是一个科学技术、社会制度、文化价值观、生态环境等各种要素交织在一起的综合系统工程。要完成这样的工程,则需要人类命运共同体的智慧和方法。

  治理模式

  人类命运共同体体现了全球一体化发展背景下社会治理的高超智慧,蕴含着全新的人类社会发展与治理理念,对于人工智能的风险治理具有重要的方法论启示。这可以为走出人工智能风险治理困境提供重要参考。

  首先,人工智能风险治理是以人类命运共同体为载体的内生治理。风险治理强调整体论视野和综合性原则,注重制度安排和顶层设计,强调社会主体多元参与,突出透明性、责任性、公正性等“善治”原则。人类命运共同体是风险治理的载体,风险治理是构建人类命运共同体的手段,人类命运共同体理念与风险治理理论相得益彰。管理是外部强加的,治理是自我催生的。人类依赖于人工智能带来的新发展机遇和条件,人与人工智能的和谐发展是人类的愿望和理想。正是这样一种愿景,可以使人产生人工智能风险治理的自觉和自律。

  其次,人类命运共同体是一套价值体系,这是人工智能风险治理的价值引领。当前,人工智能已嵌入人类生活的方方面面,引发了对人生价值、生活意义、劳动目的的追问,对人的概念、社会伦理等带来了冲击。未来人工智能可能会发展成为与人、自然共存的另一种智能世界,甚至出现自然人与人工智能的共生体。人工智能的迭代发展将挑战人的边界,甚至改变人的本质,其风险指向的是作为类本体的人。人类命运共同体是人类共同利益和共同价值的反映。人工智能风险治理要坚持以人类命运共同体理念为引领,走协同发展的道路;要以人类整体利益为旨归,站在类存在的高度,构建人工智能风险治理共同体与全球伦理共同体,甚至未来要构建人机共同体。

  再次,人类命运共同体倡导合作共赢,摈弃霸权与零和思维,这是人工智能风险治理的思想方法和战略智慧。人工智能的发展与应用,导致人在越来越多的领域被机器取代。并且,失业并非是让人最担心的,更令人害怕的是机器取代人的职位后带来的人与人之间交流和沟通机制的变化。比如,机器人同事、机器人保姆、机器人医生等各种人工智能业务,将给人的社会本性带来挑战。这种挑战或超越国界和意识形态的分歧,成为人类共同面对的问题。解决此类问题,要坚持合作共赢,摈弃丛林法则和零和思维,走共治、共建、共享的人工智能风险全球治理道路。随着科技与经济的不断发展,人类命运共同体理念越发深入人心。各国公民不断成为“地球公民”,全球的利益同时也就是各国甚至个人的利益,一个国家实施有利于全球利益的举措,同时也是在为自身利益服务。妄图建立人工智能霸权,搞技术殖民主义,尤其是打击制裁、挟私压制的人工智能风险治理路线,将不利于人类与人机的和谐发展,终将祸及自身并殃及整个人类。

  最后,围绕责任治理风险构建人工智能风险的全球责任机制,是人工智能风险治理的实践路径。人工智能的发展使得在技术权力、信息权力、数据权力的基础上形成算法权力,从而导致和加剧全球技术、经济、社会发展的不平衡,产生智能沟壑。这会引发人工智能风险与风险源的错位以及风险的不平衡化、复杂化发展。无论是现在还是将来,人工智能风险问题的根本都在于人类自身。如果有朝一日机器人能够自主行动,并且比人类更强大,那或许也是因为有人决定赋予其这种能力。追根究底,人工智能的风险责任源头还是在人类自身。要解决这些问题,需要在人类命运共同体理念的指导下,以责任为核心,建立全球责任机制,共同协作,明确有关的责任原则、标准和承担方式等,推动人工智能的负责任创新,构建权利与义务对等的人工智能伦理共同体。

  人工智能政策跨文化上的趋同性,为人工智能风险治理的人类命运共同体路径提供了证据。从具体实际来看,世界各国和不同地区由于文化的不同,对待人工智能的态度、采取的政策以及伦理规范也会有所不同,但从不同国家和企业的人工智能政策和伦理规范来看,却有着跨文化上的趋同性。人类命运共同体理念下的人工智能风险治理模式是非常必要的,也是切实可行的。

  (本文系国家社科基金一般项目“人工智能的技术恐惧研究”(18BZX044)阶段性成果)

  (作者单位:聊城大学政治与公共管理学院)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026