人工智能伦理问题的时代镜像与调适
2019年12月03日 09:03 来源:《中国社会科学报》2019年12月3日第1828期 作者:夏少昂

  人工智能技术自一出现,便伴随着伦理争议和道德评判。正因为人工智能发展前景的不确定性,及其可能导致的伦理后果难以预测,人们对人工智能问题争议不断。作为一种具有颠覆传统、重塑未来强大力量的技术,人工智能所带来的伦理问题已引起学界的广泛关注。如何准确把脉人工智能的时代镜像,透视人工智能发展的伦理风险,构建和谐共生的人机主体间性伦理新形态,是摆在我们面前亟须解决的一个重大时代课题。

  人工智能时代的伦理问题

  人工智能正处于蓬勃发展的大好机遇期,人类社会吁求高阶科学技术力量的伦理支撑。一方面,人工智能的发展离不开伦理反思的支撑作用;另一方面,人工智能又被称为伦理学科发展的新引擎。不断出现的人工智能伦理新问题,对于伦理学的发展提出了新的更高要求,丰富和拓展了伦理学研究的领域,这反过来又成为助力人工智能发展的重要精神因素。人工智能是一种全新的技术形态,通过语义网络、知识图谱、大数据及云计算等,极大地推动了社会生产力的迅猛发展,改变了人类生产生活方式,拓展了人类生存的意义与价值。依托于算法的人工智能技术,通过一系列的运算、反馈和调整,展现了人工智能的智能程度。以围棋的“人机大战”为例,“阿尔法狗”(AlphaGo)以其强大的计算能力战胜人类顶尖棋手李世石,并且通过“深度学习”的方法不断促进自身进步,完成了在部分领域对人类智能的超越。这种超越是人类利用科技力量延伸自身能力,以及追求提升自身价值的体现。另外,在日常生产生活领域,人工智能在增强人类能力的同时,也日益凸显出其对于人类自身解放的重要作用。

  机遇与挑战并存,人工智能发展在取得巨大成就的同时,也面临着严峻的伦理挑战。从人与技术的关系来说,人工智能在一定程度上威胁着人的主体性。控制论之父维纳就曾预言:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。”人工智能与一般人造物存在巨大不同,它不是单纯延伸人的体力的机械物。人工智能模拟的对象是人的大脑和思维方式。而人作为思维主体,是人之为人的本质所在。基于人工智能的特殊性,许多人担心一旦人工智能发展到某个临界点,如诞生强人工智能,它就可能解构人的主体地位,彻底压倒人类。从技术与社会的关系来看,如何有效控制技术力量的消极作用,是社会发展过程中日益凸显的难题。人工智能在给人类带来巨大利益的同时,也产生了诸多社会性问题。例如,企业可以借助人工智能收集大量用户数据,并基于此了解目标对象的偏好和行为倾向,这造成了巨大的权利不对称。再如,人工智能在推动专业化分工和创造新工作机会之余,会使得那些没有能力迈过技术性壁垒的人成为“无用阶级”。又如,在一些情境中,人工智能导致法律责任的归属成为困难。

  伦理风险与挑战的学理透视

  人工智能本质上是人类智慧和智能高度聚合的表现形式,是人类价值和意义在技术层面的展开与呈现。它所面临的伦理困境就是当前人类社会面临的伦理风险。首先,从人工智能的运行场域来看,伦理情境发生了深刻变革。越来越强大的人工智能的出现,催生了跨人类主义的伦理学问题,传统的伦理学旨趣与伦理情境已然发生重大变化。一是在创制人工智能的过程中,多元伦理理论并没有形成统一共识,从而在设计起点难以嵌入有效伦理规范,这极有可能造成对人工智能约束的失范。二是人工智能技术的强化,不仅逾越了自然的限制,而且很有可能逾越人的限制,进而成为主宰人、支配人、控制人的技术形式,将无法回应人类社会发展的伦理诉求。三是道德伦理编码嵌入人工智能的规范性结构时,既存在正当性辩护的困境,也存在法理性的质疑,这是对于传统伦理提出的新挑战。其次,从人类的伦理认知角度来看,正确认识人工智能的伦理地位,积极避免人工智能带来的伦理失范,是推进人工智能技术的前提。人工智能不仅仅是单纯的工具性“智能机器”,作为对人类智能的模仿或者模拟,其目标是成长为高阶智能形态,这要求必须在其中嵌入道德因子。随着人工智能的工具性力量日益增强,越应强化相关规范性价值,对技术能力的价值规范和伦理规范的强调,是进一步提升人工智能化水平的重要保障。最后,从人机关系的伦理模式来看,当前以人为主导的人机关系模式,具有单纯的规范性取向,即人类已有道德能力和水平决定了人工智能的道德能力建构水平。如果人类在道德问题的判别方面具有不确定性,再加之人类个体道德经验的有限性,那么人工智能造成的伦理冲突将表现得更加突出。

  我们当前所面临的人工智能伦理风险,一方面是传统伦理情境、伦理形态面临着总体性困境,人工智能不断解构传统伦理,并在日渐紧张的伦理冲突中提出愈加迫切和急需解决的伦理问题;另一方面是人与自身造物之间关系模式面临解体与重塑,人类自身的伦理禀赋与人工智能的伦理地位之间存在着一定矛盾,特别是在技术力量全面突破人类智慧的时候,如果没有有效的伦理建构和调适,人类社会将会在“技术决定论”中迷失伦理和道德责任。

  建构和谐共生的伦理关系

  在推动人工智能技术发展水平的过程中,我们不仅在创制“提高人类劳作效率”的机器,也在创制“提升人类思维能力”的机器,更是在创制“契合人类伦理责任”的机器。为此,我们应顺应时代对人工智能发展的新要求,积极进行伦理调适。

  其一,明确目标,厘清人机责任。人工智能的伦理调适,其终极目标在于增进人类利益,促进人类整体发展。只有将人工智能发展置于人类发展的历史高度,才有助于构建“人—机命运共同体”。一切都从人类利益出发,是人工智能伦理规范的最根本要求。所有创制人工智能的人类个体,必须把全人类共同利益放在第一位,并且在人机合作中重新定义人类利益,使其更加符合时代发展的新要求。与此同时,我们还必须厘清人机责任,这是责任伦理的重要体现。人工智能能够根据数据运算提供最优化行动方案,人类则会因为情感等直观因素作出情景类选择,这种行为模式生成途径的不同,决定了两者承担的责任伦理也必然存在差异。对于人工智能来说,其创制者、使用者、消费者,基于不同的情境承担着不同的责任伦理,这就要求我们从全过程角度重新诠释“人—机命运共同体”。

  其二,制定原则,体现人文价值。人工智能作为一种技术发展到现在,其工具性一面有了长足的进步和体现。而在人工智能伦理挑战日益凸显的今天,必须在人工智能发展过程中厚植深厚人文价值尺度。首先,必须遵循开放合作原则。鼓励跨学科、跨领域、跨国界的交流合作,推动不同组织和部门及社会公众在人工智能发展与治理中的协调互动。开展国际交流对话与合作,在充分尊重各国人工智能治理原则的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。其次,必须谨守伦理底线。人工智能发展在很多领域事实上正不断突破界限、挑战伦理底线。在涉及伦理道德根本问题,如维护公平正义、保护隐私等时,必须谨慎对待人工智能越界可能带来的严重后果,该坚守住的底线一定要守住,该厘清的界限一定要厘清。最后,必须体现人的目的性。人工智能系统被设计和使用的全过程,始终都应与人类尊严、权利、自由和文化多样性理想一致。人工智能创造的繁荣局面,应被广泛地共享,惠及全人类。

  其三,重构伦理形态,协同主体关系。传统伦理形态面临着时代性重构,人类思维和道德情境都在技术社会中被重新认识和改造,场域的深刻变化要求我们重构当代伦理形态。具体而言,重构人工智能时代伦理形态的核心在于构建人机协同合作新模式,这是基于合作化道德准则做出的化解伦理风险、重塑伦理意蕴的理性选择。通过自主学习和深度学习,引导人工智能在人机共生的基础上不断升级,进而提高道德责任能力。通过人工智能在相关伦理问题上的反馈结果,人类自身要提升理性反省和学习能力,从对人工智能道德的单向度要求,转向追求达成人机交互主体间的道德共识。人机之间的相互学习和伦理共鉴,能够不断丰富人机关系的时代内涵,在伦理调适中不断变革传统伦理形态,构建出主体间性的伦理新形态,最终实现人机和谐共生。

  (作者单位:南京大学社会学院)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026