当前,人工智能技术发展又进入了一个新的波峰,引起了科技、军事、哲学等领域专家的广泛热议。有人鼓吹“人工智能造福论”;有人则告诫“人工智能威胁论”。因此,恐怖谷理论和墨菲定理再次被人们反复提起。人工智能介入军事领域,一旦具备决策能力的人工智能武器出现,将彻底挑战人类伦理与道德底线。人类对此该如何从伦理的角度展开思考呢?
基于伦理的人工智能与战争演变
基于伦理谈人工智能与战争演变,重点是从人与科技的角度,即“人与武器”的关系演变来分析。从冷兵器、热兵器到机械化、信息化和智能化,“人与武器”的关系可以分为以下五个阶段:第一阶段:“人+0”。战争的萌芽时期,是人与人赤手空拳的直接搏斗,人的有效武器就是自己的手脚。第二阶段:“人+手动武器”。从战争出现至20世纪以前的时期。如需要人工驾驶的坦克飞机等。第三阶段:“人+自动武器”。包括自动武器和半自动武器等。第四阶段:“人+有限自主武器”。这一时期属于“弱人工智能”时代。包括精确制导炸弹、无人飞机等均属于有限自主武器。第五阶段:“人+绝对自主武器”。进入“强人工智能”时代,自主武器能够在无人干预或操控的情况下搜索、识别并使用致命武力攻击包括人类在内的目标。
在第一至第四阶段,人都是武器的绝对控制者,武器是人的体能、技能和智能的延伸,是为人服务的。但是到第五阶段,“机器人”可能成为一个新的物种,能够自我进化、自我繁衍。这种情况下,“自然人”很有可能会与“机器人”发生矛盾冲突,“机器人”将很可能不愿意再接受“自然人”的控制。就像电影《终结者》中所描述的那样,“自然人”与“机器人”之间将爆发生死大战。可以说“机器人”首先替代“自然人”的岗位,最终可能取代“自然人”的地位。由技术性替代逐渐演变为决策性替代。这将是对人类伦理道德的最大和最严重考验。
智能化武器带来的隐忧
人工智能的发展对战争伦理的影响是多方面的,本文主要从开战正义、交战正义和终战正义等战争正义性的三个维度,分析智能化武器对战争伦理的影响。
(一)智能化武器与开战正义。所谓“开战正义”,主要是讨论诉诸战争的权利问题,亦即对战争性质正义与否的辨析。智能化武器对于“开战正义”的冲击,主要体现在正当理由、合法权威以及最后手段三个方面。
1.智能空间的主权与侵略难以界定。智能空间(包括网络空间、认知空间等)究竟是归属各国的主权范围,还是世界共享的全球公域?从技术角度而言,万物互联是智能化时代最重要的特征,智能空间无疑具有全球公域的特征。然而,从国家安全的视角来看,智能空间安全已成为国家安全的重要方面。伴随国家主权从领土、领空扩展到信息网络等智能化边疆,围绕智能空间主权与全球公域的争议仍将延续。
2.智能化战争实施主体大大增加。在智能化时代,有资格发动战争的主体将大大增加,非国家行为体和实力弱小的一方也可以较为容易地发动智能化攻击。非国家行为体的崛起包括技术雄厚的大公司、恐怖组织等,都可以发展或者获得智能武器,并且很容易地对目标国家实施远距离攻击。
3.智能化武器使战争门槛降低。智能化武器可使战争尽可能地实现“零伤亡”和“软杀伤”,而当战争真的“零伤亡”,而且对手又缺乏有效的威慑手段时,恰恰可能会导致发动战争的门槛降低。再者,智能化武器将降低军事行动成本,这将会使战争制造者更少顾忌发动战争的经济成本,从而导致小型战争更加容易爆发。另外,智能化武器具备高敏度侦察能力和快速反应打击能力,率先发动攻击会迅速摧毁对手的反击能力,使得“先发制人”的诱惑急剧增加。
(二)智能化武器与交战正义。“交战正义”,又称战争行为正义,具体是指战争进行过程中参战各方必须遵循的伦理规则。其中,“区别性”原则和“相称性”原则构成了战争行为伦理的核心内容。可以预见,机器人成建制规模化运用后,未来战争将演变成“人VS人”或“人机VS人机”“机器VS人”或“机器VS机器”等多种方式,甚至是演变成“机器人代理战争”。人们对于智能化武器系统遵守国际人道法的区分原则、比例原则和预防原则的能力存在若干担忧。
1.附带杀伤和血腥滥杀。战争法规定:冲突各方必须避免不必要的破坏并避免给对方带来不必要的伤痛;必须善待平民、受伤与无作战能力和被俘的军人。网络武器在实际应用中也存在极大的不可控性,无法区分军事设施与民用设施。机器人虽然有人工智能,但却没有怜悯或悔恨等情感,即使杀人也没有任何的愧疚感。因此,战争的目的变为单纯的屠杀,有可能演变为《战争论》中所提出的“绝对战争”。
2.认知错觉和麻木心态。心理学研究表明,由于自身体验不到死亡的恐惧和痛苦,个体在虚拟世界里往往更加大胆,更具暴力倾向。以无人机作战为例,由于无人机作战的控制完全依靠远程声频反馈和计算机视频来实现,因而存在以游戏心态对待杀戮的风险。它会在一定程度上减少实施杀戮行为的心理和道德障碍,故而更易滋生违背军人伦理的行为。这将导致军事打击决策可能越来越轻率,打击行为也越来越频繁。
3.机器是否有权力决定人类生死?从《国际人道法》角度来说,自主杀人机器人不但会增加意外伤亡率,而且有可能将人类置于机器统治的恐怖中。有人认为人工智能技术往往是针对战术武器而言的,但笔者认为智能化的战术武器一样可以产生战略效果。
4.技术实力不对称优势下的滥用。随着智能化技术发展的不平衡,在战争中,一方处于“零伤亡”的绝对安全状态,另一方处于“看不见、找不到、打不着”的欲战不能的绝对不安全状态。无人智能化战争的不对称打击,极大地挑战了维系相称性原则的均衡性。技术上的极端不均衡,导致相称性原则的执行也就变得难以为继。
(三)智能化武器与终战正义。现代意义上的“战后正义”主要体现在三个方面:即清算战争罪行、确保战败国的政治自由以及承担战后重建义务。清算战争罪行、厘清战争责任是“战后正义”的首要体现。在传统的正义战争理论中,虽然也存在责任分配困境,但战争的相关责任方是比较明确的。但在智能化战争中,战争责任的认定将面临前所未有的困难。
1.责任主体的争议。相对于传统战争中人类作为唯一的责任主体,高度智能化的无人装备能否承担战争责任?一旦智能无人装备取代人类成为未来战争的决策者,人道原则的执行可能面临诸多挑战。譬如在技术方面,自主无人智能武器系统本身存在不稳定性和巨大的风险性。控制系统故障、黑客网络攻击等都会影响其执行符合人道主义规约的决策;另外,自主无人智能武器作出符合人道规约的作战决策尚面临难以克服的技术瓶颈。
2.责任分配的困境。对于因无人智能作战引发的非正义军事行为,其责任的追究可能涉及操控者、军火商、程序员、采购员、战地指挥员、相关维护人员乃至智能武器本身,涵盖其研制、生产、装备与应用的整个过程,其追责难度将大大提升。未来,实现“人—机”一体化的“半机械人”可能成为无人机的实际操控者,一旦人脑与无人装备的自治系统并驾齐驱,战争责任的分配必将陷入更大的困境。
“确保科技富有人性”
智能化武器为人类带来的伦理冲击,甚至可能导致人类文明史的终结。对此,我们应该未雨绸缪,早做准备,趋利避害。
(一)战争决定因素仍然是人。人类创新发展智能化武器目的在于减少伤亡,而不是让其挑战人类自我的主导地位。未来智能化战争中,无论战斗机器人系统如何高度智能化,人作为战争的主导因素始终没有改变,改变的只是人与战斗机器人的战场协作方式。高度智能化需要科学家和社会学家共同来实现,单纯从技术发展的视角来分析判断未来智能化的发展是不全面的,还必须从人类社会伦理的视角来约束指导智能化的发展。
(二)基于实力的非对称制衡仍然有效。战争仍然是流血的政治,是实力的比拼。因此,要想维护国家安全,赢得战争胜利,仍然必须努力增强自身综合实力。在人工智能革命推动下,军事技术将呈现大范围、群体性突破的“井喷”态势,这为一些实力相对薄弱的国家以较小代价、巧妙方式克制军事强国军事冒险提供了更多选择。
(三)人工智能有可能制止战争。人工智能的发展在为人类带来福利的同时,也会带来威胁。物理学家霍金曾与多位科技界名人发表联署公开信,表示人工智能对于人类的威胁将更甚于核武器。核武器出现后,正是人们忌惮于其强大的破坏力,反而进一步遏制了战争,尤其是核大国之间的直接对抗。因此,人工智能的发展抑或能够遏制战争。未来人类社会呈现出万物互联的鲜明特征,人类社会将是军民融合、多域融合、跨国融合,牵一发而动全身,反而更能够制止战争的爆发。
(四)人工智能发展任重道远。人工智能的发展仍然存在许多障碍,有些甚至被认为是不可逾越的障碍。譬如人工智能发展中一直存在的莫拉维克悖论、新知识悖论、启发式悖论三大悖论,也说明了人工智能的发展将会面临诸多技术障碍。另外,还存在一系列的制度障碍、法律障碍、规范障碍等。譬如很多科学家已经在呼吁政府快速采取措施,实施有效监管。有科学家提出,为了让机器人具有“道德观念”,研究人员可以在编程时写入一些类似于阿西莫夫(Isaac Asimov)“机器人三大定律”一样的特定指令,防止它们成为害群之马。一些专家、学者等正在通过国际组织施加越来越多的规范压力,反对自主性武器的瞄准决策功能,这些压力已经让自主性武器系统发展成为了潜在的政治敏感话题。
总之,阻止人工智能威胁的发生不只是工程师、科学家的责任,而是所有人的责任。苹果CEO库克的观点非常值得深思:“我并不担心机器人会像人一样思考,但我担心的是,人像机器一样思考。”“科技本身没有好坏之分,也没有意向。但是,确保科技富有人性,是我们每个人的共同责任。”
(作者单位:国防科技大学)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>