作为一个人工智能研究者,笔者要谈谈这个领域里的哲学观念,尽管这些观念常常不是用哲学术语表达的。正如一些学者所说,很多人工智能工作者觉得哲学讨论都是空谈,殊不知他们的很多基本观点实际上是属于哲学性的。
一般来说,任何一个科学技术领域均有哲学观念的问题,因为每个理论都有其逻辑起点,包括基本预设、覆盖范围、直观背景等。在这些问题上的争论往往不能完全在该领域之内得到解决,而需要在更大的尺度和范围中进行考虑,因此进入了哲学的范围。由于人工智能的研究对象涉及智能、认知、思维、心灵、意识等在哲学中被反复讨论和使用过的概念,和哲学的关系就比其他领域更密切和复杂。
人工智能和其他科学技术领域最大的不同是其中研究规范的庞杂。一个领域内有多个相互竞争的规范并不奇怪,但在其他领域中,主要的争议是对现象的解释和对问题的解决方法,而在人工智能领域中的争议首先是什么是要解释的现象和要解决的问题。
“人工智能”直观意义很简单,可以说就是“让计算机像人脑那样工作”。但计算机毕竟不是人脑,也不可能在所有方面都像人脑,因此一个人工智能系统只能是在某些方面像人脑,而在其他方面可能完全不像。在这一点上,主流观点是把智能看成“能解决那些人脑能解决的问题”的能力。这种把“智能”看作“解题能力”的观点实际上是一个关于智能和思维的哲学信念,尽管很多人工智能工作者是将其作为一个自明的前提来接受的。
一些人工智能的批评者(如德瑞福斯、塞尔、彭罗斯等)感到了人工智能在这方面的问题。他们正确地指出人的思维不能在人工智能现有的理论框架中得到解释,但错误地以此作为“真正的人工智能不可能实现”的理由。这些人工智能的批评者和他们的批评对象一样,把计算机的一种特定的使用方式(遵循算法来解决问题)当作了其唯一可能的使用方式,因此不能为这个领域中的突破指引方向。
把“智能”看成一组算法的另一个后果就是人工智能领域的“身份危机”。“只有人脑能解决的问题”是一个随时间而变的概念。目前“人工智能”如此之时髦,以至于以前叫“自动化”和“计算机应用”的工作现在都归在此名目下了。其结果是无法说清人工智能和计算机科学技术其他领域的区别何在,更遑论建立一个统一的理论基础。
一个常见的现象就是当一个以前只有人脑才能完成的甲任务被计算机完成后,总会有人视其为“人工智能的里程碑”,并期望乙任务、丙任务、丁任务等也会很快被完成。但过不了多久,大家就会发现不但完成甲任务的方法基本无法推广到其他任务,而且即使甲任务的“完成”也是打了很多折扣的,且和传统的计算机应用相差不远。这时“真正的人工智能不可能实现”的论断又会重现,甚至先前的“里程碑”也会沦为其“技止此耳”的证据。这种“季节变化”在人工智能的历史中已经反复上演。很多人工智能工作者抱怨自己的工作得不到应有的承认,并试图使大家相信人工智能已经在我们身边,但往往说服力有限,因为人们靠直觉就可以感到所谓“智能系统”和人类思维的根本差别。
把“智能”看成一组算法也造成了人工智能领域的碎片化。在把每个问题独立定义和解决的过程中,各个认知功能之间的内在联系被割断了。其结果之一就是这些功能在很多所谓“人工智能”系统中的表现和它们在人的思维活动中的不同。对于那些主要以人工智能作为研究人类智能或一般智能的途径的研究者来说,这种“分而治之”的办法是有缺陷的。即使完全从应用的需要来看,各个认知功能的协调运用在解决问题过程中也常常是不可或缺的。以自然语言理解为例,说“语言理解不需要推理”听上去明显有问题,但至今语言理解系统一般都没有多少推理能力。
正是上述考虑导致了近年来“通用人工智能”研究的发展,其主要特征就是对智能的通用性和整体性的强调,以及对主流人工智能基本预设的挑战。要理解这一类研究工作和传统人工智能的区别,我们需要重新审视“智能到底是什么”和“怎样在计算机中实现智能”等有哲学意味的问题。
通用人工智能系统(比如笔者设计的“纳思”,即非公理化推理系统)和其他人工智能系统的不同很多都可以追溯到对智能的理解。在我看来,智能是“一个适应系统在知识和资源不足的条件下工作的能力”。在这种条件下工作意味着系统中的所有来自过去经验的知识都可能被未来经验挑战,而且系统在解决一个问题时一般没时间考虑到所有的相关知识,因此无法保证所有结论都是绝对正确或最优的。这种情况下的理性只能是一种“相对理性”,即适应性,就是说系统只能用过去经验来尽力应对目前的新情况,用有限的资源来尽量满足当下的要求。
按照这种想法设计的系统和目前常见的主流人工智能系统有所不同。由于系统经验和资源需求随时间变化,系统对一个问题的解答往往不是固定的,因此“问题”和“解答”不能被看成经典意义下的“计算”或“函数”,并且解题过程也不遵循一个确定的“算法”,而是需要具体问题具体分析。即使是同一个问题实例,在不同的情形下所得到的处理也可能很不同。
这个意义下的人工智能不再是传统计算理论所能涵盖的。实际上这二者是互补的:前者研究知识和资源不足时的工作方式,而后者研究知识和资源充足时的工作方式。智能不是直接体现在系统解决问题的能力上,而是体现为一种“元能力”(即获得解决问题能力的能力)。在这个意义下的智能自然是通用的,而系统解决某一领域中的问题的能力完全来自于它自身的经验,包括通过感知运动界面得到的直接经验和通过语言界面得到的间接经验。因此,这种对智能的理解导致计算机在信息加工原则上向人类靠拢,而非复制人的个别解决问题能力。尽管让计算机解决各种问题有其重大价值,但这种工作并不一定加深我们对思维一般规律的理解。人工智能几十年的历史已经充分说明了这一点。当现有的理论不能满足问题的要求时,正确的办法是尝试建立新理论,而不是削足适履,把问题限制在已有理论所能覆盖的范围。
像科学史上其他重大课题一样,人工智能对人类既是个挑战又是个机会。因此,对其社会后果抱谨慎态度是绝对必要的,尤其是要尽量防止仓促地把理论成果投入实际应用。对人工智能安全问题的研究必须以对相关理论和技术问题的深入了解为前提。具体说来,由于真正的智能系统必须是有适应性的,其行为不仅是被其(先天)设计所决定的,更取决于其(后天)教育、训练、使用等环节,而后者往往在有关的讨论中被忽视。
由于人工智能的领域特征,其中有大量的哲学问题。我们甚至可以说只有在哲学上正确的方案才存在技术上成功的可能。但不幸的是,很多人工智能工作者缺乏在哲学层面上检讨其理论预设的兴趣和能力,而哲学工作者又常常缺乏深入了解技术问题的勇气和基础。在这个领域,人工智能工作者和哲学工作者相互理解的努力会使双方受益。
(作者系美国天普大学计算机与信息科学系副教授、Journal of Artificial General Intelligence执行主编)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>