2019年是科学技术伦理研究生机勃发的一年。无论是在国内还是国外,围绕基因编辑的伦理讨论方兴未艾,大数据与人工智能的伦理原则竞相推出,而气候正义、能源正义等新的研究方向也在悄然兴起。科技伦理不仅在科学技术哲学和伦理学大大小小的年会和研讨会上成为热门议题,在生命科学、计算机、人工智能等科学技术专业的研讨会和年会上,也常常出现研究科技伦理问题的声音。科技伦理相关国家级重大项目立项数目和科研经费数额显著增长,数据共享与隐私保护、算法偏见与基因歧视等已不仅是哲学家与伦理学家津津乐道的专业术语,而且逐渐成为各类媒体与公众所关注的公共话题。科技伦理学,这一原本几乎被遗忘的边缘研究领域,迎来了飞速发展。
回溯学科源起
作为一个新兴的交叉学科,科技伦理学诞生于20世纪70年代。二战以后,核技术、生物工程和基因技术、信息技术等现代科学技术的迅猛发展,在激起人们强烈兴趣和兴奋之余,也引发了担忧和恐惧。而克隆人、基因改良、互联网等新科技引发的以前从未出现过的新问题,更是直接冲击着现有的伦理规范。德裔美籍哲学家尤纳斯(H. Jonas)指出,建立在个体伦理基础上的传统伦理学已经不能涵盖和应对现代科学技术活动中出现的伦理问题,人类面对的是一个“伦理学的真空”。由此,尤纳斯呼唤构建“一种通过调节人的行为,确保人类长久续存的伦理学”,这样的伦理学应该是以责任为中心的责任伦理学。随之而来的围绕责任原则和技术是否应该成为伦理学研究对象的大讨论,带动了技术哲学的“伦理转向”和伦理学的“技术转向”,也标志着作为应用伦理学的科技伦理学的诞生。
科技伦理学的研究从一开始就沿着两条路径展开:一是追随批判哲学传统,从理论层面对现代科技采取一种批判和质疑的态度,追问什么是“好的技术”,什么样的技术活动在伦理上是可以得到辩护的,探索科学技术活动的伦理原则——比如尤纳斯的责任原则:“你的行为影响必须和地球上的真正的人的生命的持续存在相符合。”另一条路径是从传统的伦理原则出发,对具体技术,比如核技术中的安全与风险、基因工程对人性的干预与其中的物种伦理问题、计算机和互联网中的隐私与数字鸿沟问题等进行规范性审视,指出对人的尊严和社会公正等原则的挑战——其基本立场也多半是警示性或预言性、批判性的,或者如尤纳斯所称的“恐惧的启迪”。也就是说,早期的科技伦理学研究,主要以批判性反思为主,而关注这一领域的学者多来自于技术哲学和伦理学领域。
聚焦当代转向
回顾近年来,特别是2019年以来围绕科技伦理学的讨论,我们发现,科技伦理学的研究,无论是研究队伍还是研究路径都产生了较大变化。最主要的特征是多元性和跨学科性:在原本边缘化的科技伦理学的研究队伍中,不仅法学、社会学等领域的学者同哲学伦理学研究者一起组成了“伦理、法律与社会问题”(Ethical, Legal and Social Issues,简称ELSI)研究群体,而且许多专注“形而上”的学者(通常我们认为科技伦理学属于应用哲学和应用伦理学的范畴)也发出了对基因增强和算法歧视等问题的伦理追问。特别值得关注的是,诸多计算机和人工智能专家、生命科学家及社会公众一起加入了对新兴技术的反思队伍中。
研究队伍的多元性和跨学科性,也带来了研究路径的多元性和跨学科性。人们不再满足于从传统的伦理规范视域对新技术进行审视,而开始寻找和探索适用于新兴技术的伦理原则和规范路径。特别是在公众较为关心的人工智能伦理研究领域,不同层面的伦理规范和原则林林总总、竞相出台,尽管人们对“人工智能是什么”还没有达成共识,但是对“人工智能不应该是什么”已有了许多相同或相似的结论。
这昭示了科技伦理学研究的一个重大转折:科技伦理学将不再满足于对现行科学技术进行评价或批评,而是试图在科学技术进步中发挥塑型作用,即科技伦理研究力图更多地介入对科技的社会塑型与建构。科技伦理学开始从对科学技术负面后果的可能性推测,走向对科学技术可行性与可接受性条件的探索。
指向未来发展
从诞生之日起,科技伦理学就被看作是面向未来的学科,特别是在生物技术、人工智能、纳米技术等许多技术还处于萌芽期的前沿领域,由于技术后果的不确定性,及对社会影响的复杂性、长期性、累积性,许多关于伦理问题的预判,都带有某种推测性(speculative)。诺德曼(A. Nordmann)将科技伦理的这一研究模式称为“If and then”模式。比如,人工智能究竟是“天使”还是“魔鬼”的追问,就带有某种假想和推测的性质。如果科技伦理学仅停留于对后果的推测和批判,那么难免造成这样一种印象,即科技伦理学研究的目的在于阻碍科学技术的发展。尤其是当人们发现有些预判有失偏颇的时候,就更加会对科技伦理学的研究方法产生质疑。但这并不是说,评估和预测技术未来的负面后果没有合理性。恰恰相反,早期对科技后果的伦理评估,正是为了避免遭遇技术的“科林格里奇困境”——一旦技术发展成熟后,人们很难再对其后果进行控制。由此看来,重要的是如何避免和控制技术带来的负面后果,而不是限制甚至阻碍科技本身的发展。也就是说,问题不在于“做”还是“不做”,而是怎么做、在什么样的条件下做。因为几乎每一项技术的诞生都源于社会对它的期待。因此,要真正解决技术的负面后果以及相关的伦理问题,重要的是在早期如何和科技专家一起,探索科技文明时代技术活动和技术后果的可接受边界及其规范性条件。
很显然,参与科学技术进步的社会塑型将是未来科技伦理学发展的重要方向。科学技术的演化和发展并不等同于科学技术的进步。作为规范概念的进步意味着好的、可接受的、可以得到辩护的发展。但科学技术的演化和发展并不是线性的,也绝不是决定论的。社会对科学技术进步的塑型是科学技术与社会之间积极互动的体现。近年来,欧盟提出的“负责任创新”概念,目的就是希望通过对责任意识和责任行为的打造,引领作为道德进步的科学技术的进步。科技伦理学参与科学技术进步的社会塑型,其影响路径有以下几条。
首先,在技术设计的过程中,通过分析作为中介性技术的可能性空间,尤其是发现“潜在的可能性”,将可接受的道德价值转化为可接受的技术功能,尽可能压缩潜在、不可靠、不可控的“可能性空间”,使技术的“初心”与技术的后果尽可能一致。荷兰学者维贝克(P. F. Verbeek)、范登霍恩(V. D. Hoven) 等人提出的“道德物化”和价值设计路径可以看作是这个方向的有益尝试。在价值设计中,伦理学家已不仅是科学技术的旁观者,而是科学家和工程师的合作者与科学技术共同体中的一员。伦理学的作用也不再仅是道德论证和概念反思。价值设计的要旨在于将道德原则和价值规范整合到技术过程和技术产品中。
其次,如果我们把前一路径看作是将道德“外化于物”的话,那么,第二条也是最重要的路径,就是将道德和责任的概念内化于心,进而外化于科学家和工程师之行——人工物的创造在很大程度上有赖于他们的智慧和劳动。诚然,如阿伦特(H. Arendt)所言,“早期人造物的世界赋予人类一种坚实的稳固性和安全感,使人这个变化无常、难逃一死的生物在地球上有了一块栖息之地,使人拥有了一个稳定的家园”。但今天,科技的力量有时给人以安全感,有时也带给人恐惧。正如爱因斯坦所言,“科学家和工程师担负着特别沉重的道义责任”。科学家和工程师应该认识到,他们不仅承担了创造技术人工物的责任,而且指导着技术人工物的潜在威力释放方向和道德指向。科技伦理教育势在必行,将科技伦理知识整合到科学家和工程师的知识体系和思维方法之中,或许是“道德嵌入”的最高境界。
再次,通过制度和政策的规约,以此保证具体技术应用的可行性和公众的可接受性。适宜的、可以修正的、动态的科技政策是推动技术负责任创新的重要手段。因此,未来的科技伦理学研究在方法学上将会突破现行的概念框架,聚焦真实世界的伦理问题,在不放弃道德原则分析的同时,借助于跨学科和多学科的社会科学的经验描述方法,深入了解公众对技术的价值期待。在此基础上,确定“什么是可接受的技术”“技术可行性的边界在哪里”等,为科技政策的制定提供伦理基础和道德辩护。科技伦理学的规范研究,离不开社会科学的支持。
最后,尽管我们共有的、基于人的道德原则可以提供道德整合的抽象性基础,但要构建基于可行性和可接受性的价值规范,还有必要立足于相应的科学技术文化,了解利益相关者的意愿和需求。科技的未来也是人类的未来,在全社会共享科学技术带来的便捷舒适的生活的同时,共同建造一个安全美好的家园,也是全社会共同的责任。因此,营造一个平和而又明智的话语空间和话语环境,是科学技术伦理建构的文化基础。
新的一年,科技伦理学将不会止步于对科技进步中伦理与社会问题的规范性反思,而是会努力参与到科学技术进步的塑型中去。在某种意义上,科技伦理学将从“坐而论道”走向“知行合一”。科技与伦理的并行可期可待。
(本文系国家自然科学基金应急项目“科研伦理与科研诚信治理研究”(71843009)、中国科学院学部项目“大数据的伦理问题及社会治理”阶段性成果)
(作者单位:复旦大学哲学学院)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>