从逻辑维度把握人工智能的局限性
2022年09月06日 09:37 来源:《中国社会科学报》2022年9月6日第2486期 作者:孙雯

  人工智能是人类利用计算机对人类智能活动进行的模拟,从而让计算机完成人类心智能做的一些事情。通常,“智能”不是一维的,而是有着层次分明、结构丰富的不同维度,具备各种信息处理能力。目前,人工智能可以利用多种技术完成多重任务,给人类生活带来了极大的便利。但随着人工智能的大规模与长期化应用,由于人工智能不能根据具体情境进行自我调适,以及智能机器存在的欠缺和智能系统的局限性等原因,决策错误、算法偏见、数据泄露等问题层出不穷。因此,本文从逻辑维度探索人工智能发展的局限性,希望能够为应对有关挑战带来一定启发。

  图灵机

  人类想用机器代替人类工作和计算的想法由来已久。早在17世纪,莱布尼茨就提出了创建“普通语言”的构想,即创制表意的和无歧义的符号系统,以借助这些符号将人类知识和信息表达出来。1936年,图灵(Alan Turing)在文章《论可计算数及其在判定问题上的应用》中提出了现代计算机的理论模型——图灵机。由此,莱布尼茨的构想在图灵机上得以延续和实现,人类推理被转化为数字运算,并由计算机进行处理。

  图灵机是现代计算机的原型,结构非常简单,即一个足够长的能印上符号的纸带和一个可以获取符号的读写头。然后,由一组指令集来支配图灵机执行工作,实质上可以理解为一个有限的四元组集合(当前的状态、纸带符号、要执行的操作、新状态)。由此,我们可以看出,图灵机虽然同现代计算机存在差距,但其基本功能与现代计算机并无区别,即存储和运算。

  实际上,人工智能是信息时代的宠儿,计算机处理速度非常快,而且不知疲惫、不厌其烦,人类期待把处理信息和知识这个重任交给计算机完成。从计算机的基本功能来看,其存储、运算能力已远超人类个体。从这一点来看,建基于计算机之上的人工智能,比人类更“聪明”、更“智能”。至此,也促使和激发我们思考另一个问题:人工智能能否拥有“真正的”智能?

  不完全性定理

  1931年,哥德尔(Kurt Godel)的不完全性定理(Incompleteness Theorem)给出,“任意一个包含一阶谓词逻辑与初等数论的形式系统,都存在一个命题,它在这个系统中既不能被证明为真,也不能被证明为伪”。1951年,王浩根据哥德尔的吉布斯演讲指出,人类智能并不能将人类所有数学直觉加以形式化,还会产生新的直觉知识,这个事实可以称为“不完全性”。因此,从某种意义来说,在命题逻辑中,从恰当的前提出发,通过推理可以演绎出该领域的所有真理。但是,当由命题逻辑拓展到谓词逻辑或初等算术系统时,总有该领域的真理无法通过演绎得出,完全性就不能成立了。

  简单来说,人工智能在形式化后,则为由数据集和指令集构成的可执行程序。人工智能执行的指令集相当于公理系统。当指令集足够丰富时,总会存在该范围内的某些程序语句无法从这些指令集中得出。因此,不管人工智能如何强大,也无法完成所有指令。总会有一些足够复杂且重要的演算,形式系统无法帮助我们将其实现。这时,人工智能将无法执行这些指令集。

  邱奇—图灵论题

  1934年,邱奇(Alonzo Church)提出,“每个能行的可计算函数都是一般递归的”。1936年,图灵提出,“能行可计算函数都是图灵机可计算的函数”。可以说,凡是递归函数都是图灵可计算的,统称为邱奇—图灵论题(Church-Turing Thesis,CTT)。至此,人们确定了机器只能计算一般的递归函数,也即图灵可计算的函数。机器是无法完成所有函数运算的。对于一般递归函数之外的函数,无论人工智能有多聪明和强大,也是无法进行计算的。邱奇—图灵论题清楚说明了,人工智能不是万能的,要人工智能来解决问题,就要求问题是可计算的,并且还要有合理的复杂度。

  此外,邱奇—图灵论题中的递归思想也是人工智能形式化的基础。显然,环环相接的变换序列在机器上很容易实现,逻辑形式化是人工智能形式化的基础。人工智能的形式化,大体是依照逻辑系统的形式化来定义的。当人工智能处理任务或问题时,前提是要把任务或问题逻辑形式化。但是,逻辑系统的形式化是有适用范围的。目前,人工智能尚不能实现人类智能完全的形式化。不难看出,当面对不能通过形式化而表征的任务时,人工智能会有很多局限和困难。

  勃克斯心智—机器论题

  1986年,勃克斯(A. W. Burks)在《机器人与人类心智》一书中,讨论了一个有穷自动机可以实现人的一切自然功能的可能,并称其为“心智—机器论题”(mind-machine thesis)。在勃克斯看来,人与机器人没有本质区别,机器总有一天会实现人类心智的功能。然而,这种观点受到很多质疑和挑战。从哲学角度看,人工智能是否可以真正理解“指令”?是否可以拥有感知、意识和情感?

  面对人工智能的“理解”问题,我们可以将“理解”看成一个三元关系,即可以看作“计算机”对于“指令和语句”的“信息赋值”。简单来说,就是给“语形符号”赋予“语义”。“语形符号”就是数据的形式语言,人工智能对这些语言符号的“理解”就是通过“语义赋值”来实现的。在命题逻辑和谓词逻辑中,不难实现对“语形符号”的语义赋值,但根据塔斯基(Alfred Tarski)的算术真概念不可定义性定理,当语言丰富到极小算术时,“真”概念不是算术可定义的,在足够丰富的系统中,无法定义该语言的真。这说明,在简单的形式语言中,人工智能可以“理解”语义“真”,但拓展到足够丰富的算术语言时,人工智能将无法理解最基本的语义“真”,更谈不上真正“理解”其输入输出的指令和语句。并且,人类智能包括判断、推理、学习、记忆和感知等。但计算机是依据人类设计的指令来运行的,并无感知、意识、情感、直觉和想象等功能。换句话说,是人类将大量知识和信息“注入”计算机,并不是计算机主动感知,其并不存在自主性。

  所以,人工智能仅是一个特殊工具,是执行指令集的机器,没有自主性、意识和情感。所谓的机器具有自我意识等,只是使机器“看起来”具有自我意识,人工智能在执行指令中表现出的某种选择性与人类的自主性不是一回事,只是一种“虚假的自主性”。不难看出,人工智能难以处理心智的某些方面,因此很难说拥有“真正的”智能。

  在认识和改造世界方面,人类作为某个个体,其认知存在一定的局限性,但对于整个人类而言,其认识或可突破这种局限性。计算机科学与人工智能的快速发展已引起了哲学范式的拓展和变革,涌现出一系列新的范式。比如,人工智能哲学、逻辑机器哲学、计算机哲学、信息哲学等。从某种程度上说,人类可以比任何计算机拥有更广泛、通用的问题判定与解决能力,因此以可计算性理论为基础的智能计算机无法实现对人类完全的代替。不过,人工智能还有很大的发展空间。我们应另辟蹊径、开拓创新,不能把注意力仅局限于智能机器的发展和应用,还要研究人类思维活动中更深层的具体规律,从而提出新的研究纲领,形成新的研究领域,将新的方法、概念和机制与新的理论或机器模型相融合,以期逐点、逐面地创造出新型智能机。

  (本文系河北师范大学马克思主义学院青年马克思主义理论家项目“人工智能中的逻辑前沿问题研究”阶段性成果)

  (作者单位:河北师范大学马克思主义学院)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026