“长期主义”关注人类未来发展
2023年01月09日 08:36 来源:《中国社会科学报》2023年1月9日第2568期 作者:本报记者 练志闲

  2017年,英国牛津大学哲学家威廉·麦克阿斯基尔(William MacAskill)提出“长期主义”,即积极影响未来应是最值得当前社会关注的问题。此概念一经提出便获得志同道合的哲学家和“有效利他主义”运动支持者的认同。有效利他主义致力于运用分析推理,从生活的各个层面思考如何最大限度地发挥有限资源的效益来改善世界,长期主义与有效利他主义紧密相关。

  近来,长期主义的概念已经从哲学范围内的讨论跃升为大众新闻头条内容。2022年8月,麦克阿斯基尔出版了有关长期主义的著作《我们欠未来什么》,受到了社会各界的广泛关注。2022年11月,长期主义支持者山姆·班克曼-弗里德(Sam Bankman-Fried)的公司倒闭,这使长期主义获得了更多的媒体聚焦。

  长期主义定义及其实践

  麦克阿斯基尔最初积极倡导有效利他主义,即利用理性与实证的方法最大化利用时间与金钱等资源来帮助他人。在采取实际行动帮助改善世界的过程中,他产生了一个想法:未来的人很重要,这便是长期主义概念的核心。他表示,长期主义不仅仅是一个抽象的概念。就像人们的决定可能会产生终生的影响一样,人类在本世纪做出的决策也会影响到人类的长远未来。长期主义认为,人类未来面临的挑战可能会影响人类文明轨迹,正因如此,人们应将视野放到整个人类命运的长度来应对挑战。

  麦克阿斯基尔表示,许多社会运动都在为弱势社会成员争取更多权利,有效利他主义关注的是空间层面上的平等,即无论人们身处何地,都要平等地关注他们的福祉。长期主义则将这种思维延伸到了时间上,即无论人们身在何时,都要同等地关注他们的福祉。人们关心气候变化、放射性核废料和资源枯竭的影响,不仅因为这些问题影响了人类当代的生活,也因为它们影响了人类子孙后代的生活。

  他说,尽管人类历史悠久,但从人类命运角度来说,我们可能仅仅站在了历史的起点上。因此,我们首先要确保人类拥有未来,其次要尽可能保证这个未来是美好的。历史上有许多推动可持续发展的方法,从植树造林到富有远见的道德价值层面的指导,这些举措带来的影响一直持续至今,今天我们依然需要继续积极采取措施塑造美好未来。

  对此,他提出,第一步是降低人类灭绝的风险。人类要确保后代依然有生存的机会,不负责任的行动会导致人类灭绝。目前最大的威胁之一来自流行病,疫情让人们充分认识到传染性疾病的危害。麦克阿斯基尔认为,人类不断地侵占自然栖息地,这使得疾病从动物传给人类的风险增加,未来发生传染病的可能性会更大。据预测,本世纪全球95%以上的人口死于传染病的风险远高于死于火灾、溺水和谋杀的概率总和。因此,长期主义倡导者认为,现在就可以采取行动来降低相应风险,如美国麻省理工学院的学者已经开始针对流行性疾病研发病毒观测工程和对人体安全的消毒设备。

  尽管生物技术飞速发展,人类能够研发出相应的疫苗,保护人体免受疾病侵害,但麦克阿斯基尔仍强调要警惕技术发展的风险。例如,生物技术的发展也让人类有能力创造出新的病原体,成为具有巨大破坏力的生物武器。人工智能也是他常提及的例子,未来人工智能可能会超越人类,因此人们正在努力确保人工智能系统的安全性。例如,美国加州大学伯克利分校的学者斯图尔特·拉塞尔(Stuart Russell)教授创立了人类兼容人工智能中心,确保人工智能与人类的目标相一致。

  第二步是推动未来文明蓬勃发展,可以通过改善社会价值观来实现这一目标。历史上的活动家与思想家,已经通过争取民主、有色人种的权利和妇女的选举权等社会运动,在价值观层面获得了进展。我们可以在这一基础上继续改进,为子孙留下更好的世界。

  长期主义的理念正在得到更多人的认可,越来越多的人愿意向有利于未来世代发展的事业捐赠,也有主流基金会开始优先处理与塑造美好未来相关的事项。联合国2021年发布了《我们的共同议程》报告,提出“现在是时候谋划长远之计,为青年和子孙后代交付更多成果,为未来挑战做出更好准备”,并提出召开“未来峰会”,关注未来世代。

  也有诸多高等教育机构与学者加入了长期主义的课题研究,学者研究的问题集中在如何降低未来可能面临的风险,包括“人工智能从受制于人类发展到高于人类需要多久?下一步当如何?”“人类文明崩溃后恢复的可能性有多大?”“是什么推动了道德的进步?如何防止不良价值观?”“如何有效应对风险?”等。麦克阿斯基尔表示,我们有责任正确解答这些问题,为后代留下一个美丽公正的世界,一个可以在未来数百万年里繁荣昌盛的世界。

  关注未来充满争议

  澳大利亚国立大学哲学系副教授凯蒂·斯蒂尔(Katie Steele)表示,长期主义与有效利他主义一样,一般都是有针对性、以目的为导向的行动,致力于帮助人类避免未来某个特定的风险,它们也因此而饱受争议。

  美国加州大学河滨分校哲学系教授埃里克·施维茨格贝尔(Eric Schwitzgebel)对长期主义提出质疑。他认为,未来的风险难以预测,现在长期主义倡导者所担心的核战争、人工智能、传染病等问题,在一个世纪以前完全难以想象,同理我们现在对下一个世纪真正会面临的危机的预测未必可靠。因此,他认为,比起关注遥远的未来,关注当下与近期的未来更为合理。他说:“在儒家伦理中,人们应该最关心近亲,其次是远亲,再是邻居,然后是更为广泛的同胞……同样的,我会非常关心我现在所生活的社会与世界,十分关注我死后百年的世界,而对一万年甚至百万年后的世界的关心自然少得多。”

  施维茨格贝尔表示,长期主义的风险之一在于过度关注极其遥远的未来,因为这样可能会导致当下人们的需求和利益被忽略。斯蒂尔也提出了类似的问题,即一件在未来有1%的机会帮助一万亿人的事情,与一件现在肯定能帮助十亿人的事情,哪件事情更好?当生命受到威胁时,适当的风险规避是一个重要的哲学问题,这就涉及预测的权威性问题:我们要为潜在的灾难采取应对行动,但是其发生的概率到底有多大?

  关于这一点,麦克阿斯基尔解释说,目前人类投入在促进美好未来前景的精力与资源只占极小一部分,例如,《禁止生物武器公约》的年度预算还不及麦当劳餐厅的平均收入水平。由于目前人类对后代利益的关注程度极低,因此只要社会关注略有增加,都足以产生变革性的影响。更重要的是,为长远未来做准备,在短期内也有好处。例如,现在就为未来努力研究如何预防和治疗流行性疾病,也能拯救现代人的生命;使用清洁能源有助于缓解未来气候变化,也减少了现在每年死于化石燃料相关空气污染的人数,而这一数字可以达到每年360万人。

  让哲学思考成为每个人的事

  斯蒂尔表示,虽然长期主义提出的未来潜在威胁并非天方夜谭,但依然要在预测时保持谨慎,也就是说如果长期主义在预测未来可能面临的威胁时轻率而为,就必然会招致广泛批评。她补充道,由于长期主义所提出的措施都十分明确地指向某个具体威胁,所以提出相关倡议还要更加谨慎,因为往往间接指定的战略或许能够更好地提高世界应对未来挑战的能力。例如,促进人类团结、加强国际机构建设等。

  她还提出,长期主义中有许多有趣和探究性的指引,其新颖性并非在于指导人类采取何种措施,而在于促使人们反思该决策背后的原因。有效利他主义的核心原则在于,无论我们为最大化共同利益做出了多大努力,我们都应尽可能做更多好事,长期主义亦是如此。这些理论的最终决策或许会使有些人表示赞同,但也会使有些人觉得违反常理。斯蒂尔建议,这是一个很好的机会,能让更广泛的人群开始反思应当如何看待某个特定的决定,如何分析其背后的道德与经验支撑,在这些证据支撑的基础上是否还有更佳抉择等问题。斯蒂尔表示,哲学家们在思考问题时,习惯从极端的情景进行假设考虑,人们的哲学反思可以成为哲学家们思考的补充。

  长期主义运动将极端的未来威胁呈现在人们面前,让人们认识到这些问题与自己息息相关,从而推动人们开始主动进行哲学反思。当前人类正面临许多危机,如气候变化和生物多样性大规模丧失等,而留给人类应对这些问题的时间并不充裕。长期主义推动人们主动进行哲学思考,有利于人们更好理解当下与未来人类所面临的威胁和相应决策的意义。

责任编辑:常畅
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026