探索机器人伦理原则
2021年06月29日 09:23 来源:《中国社会科学报》2021年6月29日第2196期 作者:杨琼

  当前,机器人、人工智能等技术发展带来的风险与日俱增。探寻如何避免技术发展所带来的不利影响,同时利用其潜力,取决于我们是否具有这种平衡的智慧。我们坚持发展人工智能等高新技术的一个基本前提是,人类要引导技术的发展,而不是被技术改造和奴役。技术的发展需要兼顾人文因素,体现负责任的创新。

  有人描述了这样一幅关于未来工作的画面:如果机器能够记录和模仿人的工作,人就会被它取代。工人将被越来越强大的软件、机器人和预测分析技术所取代。似乎只要有足够的摄像头和传感器,管理者就可以模拟出工人的“数据替身”:一个全息影像或机器人,不需要拿工资就能完成工作。这一愿景给出了严峻的选择:要么制造机器人,要么被机器人取代。或许,还有另一个故事:几乎在各行各业,机器人系统都能让劳动更有价值。各行业的专业人员和计算机科学家们的密切合作可以为我们带来更好的医疗、教育等服务,同时也能让人类继续从事有意义的工作。我们需要探索能够更好指导技术进步的机器人的伦理原则,使机器人能够和作为主体的人携手共进。

  在1942年的短篇小说《转圈圈》(Runaround)中,科幻作家阿西莫夫(Isaac Asimov)第一次明确提出了“机器人学三定律”(Three Laws of Robotics),小说中虚构了2058年的《机器人技术手册》(第56版)中的律令:1.机器人不得伤害人类,或者故意不作为,让人类受到伤害;2.机器人必须服从人类下达的指令,除非这种命令会与第一定律冲突;3.机器人必须尽力保全自身,只要不与第一或第二定律冲突。1985年,在《机器人与帝国》一书中,阿西莫夫将三大定律扩充为四大定律(扩充的第四条定律也称“第零定律”):机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。在他看来,第零定律的优先级高于其他定律。

  阿西莫夫的机器人学定律具有巨大的影响力,但也存在一定局限性,无法适应复杂的现实情景。阿西莫夫的定律看似简洁明了,应用起来却困难重重。比如,自动驾驶汽车生产商承诺每年会减少成千上万的交通事故,但同时也会让数十万司机失业。此类消极因素是否让政府有权禁止或减缓自动驾驶汽车的推广?阿西莫夫的定律对这类问题并不明确。政策或理论往往滞后于实践,所以规范机器人和人工智能的法规、条例远比阿西莫夫的定律要更加详细具体。鉴于阿西莫夫机器人学定律的局限和科技发展所呈现出的问题复杂性,我们将探索和推进机器人伦理原则,初步提出三条。

  1.机器人系统应作为专业人员的补充,而非对其进行完全取代。技术引发失业的冲突性预测推动了大众对未来工作的讨论。当前的不少工作岗位都可能被未来的技术发展所取代。我们面临的问题是:哪些工作是不应被机器人替代的?我们遵循的原则是,有意义的工作对人的自我价值和社群治理具有重要性和必要性。人性化的自动化议程将优先考虑创新,以补充工人在工作中的不足。机器人可以取代危险的或有损尊严的工作,同时我们要尽可能为目前从事这些工作的人提供过渡到其他社会角色的机会。我们要在专业化和人性化之间取得平衡:既要促进集体共同利益的发展,又要让个体在生产组织中拥有足够的权利。我们不应像极端的颠覆性创新的倡导者甚至狂热者所渴望的那样——拆解或取消专业。相反,人性化的自动化需要加强现有的专业社群,并创造新的社群。我们可以设计技术转型,让人们参与其中,或者至少让其有这样的选择。机器人和人工智能是由人类合作构建出来的产品,人的因素始终应是关键的一环。

  2.机器人系统不应过度伪装为人。当前,一些机器人学家希望找到金属骨骼和塑料皮肤的适当组合,使仿人机器人几乎再现人类的特征、姿势体态和存在方式。但这也引发了广泛焦虑。我们首先要应对的就是“恐惑谷效应”。当一个事物与自然的、活生生的人或动物非常相似时,会使不少人产生反感、厌恶、恐惧等负面情绪。其次,我们是否希望生活在一个我们不知道自己面对的是人类还是机器人的世界?人工智能分析和模拟人类情感的情感计算研究项目,可能最终会创造出像一些科幻电影中那样与人类无法区分的机器人。当假币达到一个临界点时,真正的货币就会失去价值。在允许机器自由模仿人类的情感、语言和外表的社会中,人与人之间的关系也可能面临着同样的命运。目前,我们已或多或少地感受到了此类技术的滥用。比如,在来自机器人呼叫中心的拟人电话轰炸中,机器学习程序合成的声音使人真假难辨,让我们震惊之余又心生恐惧。

  3.机器人系统要表明其创造者、控制者和所有者的身份。人类必须对机器人或算法系统负责。当前,一些程序可以生成新的程序,而新的程序又可能衍生出其他程序,但我们仍可以追溯到其源头,并应在可以预见的未来保持这种现状。目前,人工智能、机器学习和机器人领域的前沿技术(如智能合约、高频交易算法等)阶段性地实现了自主性。但我们认为,任何人工智能或机器人系统都要指定责任方对其行动负责,这将有助于保障这类项目的安全性。当然,还存在机器人或算法可能在与其他机器人进行交互的过程中偏离其所有者初衷的可能。但无论如何,最初的创造者应有义务对代码的更新迭代进行一定的约束,以防止不良后果的产生。监管机构要倡导“设计责任”,以补充现有的设计安全和设计隐私模式。这些举措不应只是简单地对机器人和人工智能进行事后监管,而是要通过排除一些设计选项和鼓励其他优化选项将隐患规避在摇篮中。

  这些机器人伦理原则促进了互补性、互惠性、合作性,并且都建立在一个主题之上:激发负责任的创新研究。技术研究和技术创新应遵循一条基本原则:以人为本、对人负责。技术进步的目的是更好地服务人类,带来生活上的便利,促进生产力的发展。有些学者会感叹监管者和有关法律跟不上技术进步的步伐。因此,机器人伦理原则要遵循人本原则,明确取代人的技术和帮助人更好地完成工作的技术之间的区别,并基于责任意识倡导在研究的各个环节做到设计规范、源头可溯、责任明确。我们要坚持一种进取而非破坏性的文化,坚持技术发展让人类愈加充实而非取代人类。机器人技术的未来应是包容和民主的,能够反映全体公民的努力和诉求。而机器人伦理原则可以指导我们在这条路上走得更加顺畅、踏实。

  (本文系国家社科基金重大项目“当代新兴增强技术前沿的人文主义哲学研究”(20ZD044)阶段性成果)

  (作者单位:云南师范大学马克思主义学院)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026