近年来,随着信息技术的高速发展,人工智能(Artificial Intelligence)成为一个热门话题。与此同时,人工愚蠢(Artificial Stupidity)也进入人们的视野之中。不过,与人工智能相比,人工愚蠢被谈论得较少,但更应被认真对待。适度的人工愚蠢能够激发人的参与热情,而离开人的参与,再完美的计算机程序也不过是一个孤独运转的冰冷机制——无论其功能多么完备强大,也缺乏意义。如果说人工智能的潜在后果是人类智能被取代甚至被淘汰的话,那么人工愚蠢在某种程度上则可能为人类智能预留相对体面的未来。
人工愚蠢有定义
目前,人工愚蠢的定义还不够清晰。大体而言,人们要么会从人工智能的角度出发,把人工愚蠢理解为人工智能的派生概念;要么会从人类智能的角度出发,把人工愚蠢理解为人类智能或人类愚蠢的直接反映和体现。
人工愚蠢:人工智能的派生概念。当一些人工智能没有达到预期目的,或者虽达到预期目的但却不能依据具体情境进行自我调适,那么人们就会称其为人工愚蠢。理由是:该人工智能还不够智能。在这种情况下,人工愚蠢是对这些人工智能的贬低性称呼。依据这样的理解,人工智能发展史在某种程度上可以说是人工愚蠢的发展史。迄今为止,人工智能也难以完全符合人的预期,而且人的预期又是不断变化的,曾经智能的总是会随着预期的改变变成愚蠢的。比如,1997年在国际象棋人机大战中获胜的深蓝(Deep Blue),被认为是当时人工智能的代表,但如果把深蓝放到今天来看,则很难说是“智能”的。再比如,围棋程序AlphaGo的出现,让不少人关注到机器学习领域的“深度学习”(Deep Learning),但即使是被科学家们寄予厚望的“深度学习”,也难免于“愚蠢”的指控。因为,“深度学习”认识一样事物需要上百万个案例,而与之相比,人类触类旁通的学习过程则更显“智能”。
人工愚蠢:人类智能或人类愚蠢的反映和体现。在计算机科学与技术领域,人工愚蠢一般指的是一种把计算机程序“弱智化”(Dumbing Down)的技术。即人们为实现某种目的,以人工干预的方式降低计算机程序的智能程度。比如,为通过图灵测试,设计人员可能会故意在程序中植入一些漏洞或错误,让计算机在回答观察者提问时表现得更像会迟疑、犯错的人类。目前,此类技术已在各类聊天机器人身上得到广泛应用。而一些游戏公司为丰富玩家的游戏体验,也会将此类技术运用到游戏设计中。在这种情况下,人工愚蠢跟人工智能一样,是人类智能的体现。此外,还有一些错误是因为人的理性限度或疏忽大意而留在程序里的。与那些有意植入的错误相比,这类错误虽然也属于人工愚蠢的范畴,但却没有体现出任何人类智能,而只是人类愚蠢的直接反映。换言之,正是人的愚蠢才使得智能程序不那么智能。
人工愚蠢引发风险
有时,人们把人工智能戏称为“人工智障”,是因为计算机程序所展现出的,更多是人工愚蠢而非人工智能。人工智能之所以被称为“类人的”,很大程度是因为其模拟和延伸了人类智能,但如果其同时也模拟和延伸了人类愚蠢,那么会带来怎样的风险呢?对此,我们把人工愚蠢的风险简要归纳为以下三点。
1.计算机程序无法理解人类的情感和伦理。比如,有软件公司推出过一款聊天机器人,它可以通过网络与人交流,不断学习。起初,该聊天机器人宣称自己热爱世界和人类。然而,不到一天,它就被“教导”成一个脏话连篇并发布极端言论的“恶魔”。该软件公司因此经历了一场公关危机,不得不把聊天机器人关闭。可见,互联网虽然给人工智能的学习提供了大量数据,但是却无法为之提供辨识偏见和极端思想的能力。
2.计算机程序无法完成预期任务。比如,有电动汽车发生过车主因手机客户端崩溃而无法打开车门的事件。可见,当我们习惯于依赖智能系统时,智能系统却不仅会犯错,还会失联。
3.人工愚蠢技术的滥用。目前,人们已开始制造会故意犯错的机器和程序,把错误编写进程序里,使机器“弱智化”。这一方面可以使其更像人类,另一方面也提升了网络诈骗和网络攻击的风险。比如,有网络诈骗者会利用聊天机器人软件,一个人同时操控几个甚至几十个端口,在社交软件上伪装成不同身份交友聊天并进行诈骗。
人工愚蠢为人工智能确立界限
尽管人工愚蠢有诸多风险,但如果应对得当,也会给我们带来不少好处。比如,类人机器人可以为孤独者提供陪伴;降低计算机的智能程度可以提升人的游戏体验;在程序测试环节,人工愚蠢技术还可以检测程序的容错性及其在极端条件下的运行状态。此外,人工愚蠢或许还能够帮助我们理解人工智能的界限。
当前,人们对待人工智能的态度大体可分为两类。一是人工智能威胁论,二是人工智能可控论。秉持人工智能威胁论的人往往会受到“人类需要逃生舱”理念的驱动,认为人工智能的发展可能会给人类文明带来灾难性后果。一些人认为,通过脑机接口技术让人工智能与人类相融合,或许是应对未来风险的一个方案。该方案与超人类主义思想存在一定共鸣。超人类主义(Transhumanism)是20世纪中叶兴起于欧美的一个思想流派,它主张利用技术来提升和改进人的自身条件(包括人的健康状况、智商水平、精神状态,乃至道德素质)。不过,如果我们接受了这一方案,利用人工智能来改造人,把人机结合视作生命进化的下一个阶段,那么传统的人的观念就会受到巨大冲击。届时,无论是有机生命还是人本身,都需要被重新理解和定义。
人工智能可控论者认为,人工智能威胁论夸大了人工智能对于人类文明的威胁。随着科技的发展,高效的人工智能不仅会改进我们的生活质量,还会让世界变得更加美好。尽管此类观点或许过于乐观,但是这种对人工智能的实用主义态度,确实也代表了如今不少人的想法。
人工智能的威胁论与可控论之争,促使我们思考一个问题:人工智能有没有界限?如果有,那么应如何理解其界限?当前,我们正处于人工智能由“弱”变“强”的时代。人们往往不再满足于制造一些条件反射性的人工智能,而是希望能够发展出一些能学习、会思考、可以解决问题的人工智能。在这一转变过程中,人工智能的发展的确存在失控的危险。唯有确立了人工智能的界限,人工智能才是可控的;而人工智能唯有可控,它才是智能的。
我们要让人工智能的发展变得可控,有两条路径。一是超人类主义者所主张的,利用人工智能技术或基因技术来改造人,使人变得更强大、更聪明;二是通过应用人工愚蠢技术,把人工智能限定在一个可控的范围之内。也就是说,要么把人变得像“智能机器”一样聪明,要么把“智能机器”变得像人一样愚蠢。需要注意的是,前一条路径不仅需要克服许多技术上的难题,还要承担不少伦理上的风险。相较而言,借助人工愚蠢技术为人工智能设立界限,则相对稳妥和可行。
(作者单位:上海社会科学院哲学研究所)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>