人工智能有实践概念吗?
2021年06月22日 08:57 来源:《中国社会科学报》2021年6月22日第2191期 作者:周靖

  在实用主义那里,“实践”既指直接应对环境的活动,从而是敞开世界的活动,也指使用概念的语言活动,从而是意义生发和形成共同体的活动。实用主义认为,人类恰是借助实践才打开了世界,才形成了人所独具的心灵、语言和共同体。考察人工智能是否有实践概念,意味着在哲学层次审问人工智能获得心灵是否可能。新实用主义者布兰顿认为机器的算法语汇也是一种实践语用语汇,从而为一种与人类心灵非严格同一的强人工智能观作了辩护。这种独特的人工智能观也许蕴含着某些值得重视的启示。

  “实践”之于人类心灵形成的重要意义

  塞尔曾对强、弱人工智能作过著名区分,认为两者的差别体现在强人工智能(即通用人工智能)具有意识或心灵,而弱人工智能仅体现为对人类心灵的模仿。塞尔本人持有反强人工智能的立场,他的推理是:(P1)人工智能程序是形式的(句法的或算法的);(P2)人类心灵具有的是心理内容(语义内容);(P3)句法不是由语义学所构成,也不是构成语义学的充分条件;从而,(C1)人工智能程序不是由心灵所构成,也不是构成心灵的充分条件(强人工智能不可能)。上述推理中,塞尔将“语义内容”等同为“心理内容”,从而将(P3)中的函项“语义学”替换为“心灵”,得出人工智能没有心灵的结论。

  隐含在塞尔推理背后的是这样的预设:拥有心理内容意味着成为这样的主体,该主体在运用语言表达式时能够真实地知道该表达式的语义是什么,即使用该表达式时意在世界中的什么对象或拥有关于什么内容的意向性。在塞尔看来,人工智能的算法语汇是纯形式的,它不关涉我们实际置身于其中的世界情境,故而既无法从应对世界的活动中衍生出心灵,也无法知晓关于世界的语义。

  同塞尔一样,以皮尔士、詹姆斯、杜威、罗蒂、布兰顿等人为代表的新、老实用主义者十分重视涉身世界情境的“实践”在形成人类心灵、语言,以及社会共同体上所具有的重要意义。杜威尤为直接地强调生物进化的过程与其对周边环境的物性(physical)反应过程的连续性,认为恰是在应对“周遭世界”的实践活动中,我们才获得“对象”和相关的“意义”:“作为‘对象’,它们的能力和意义在于被我们在生命的进程中享受、承受、经历、使用或转换。”在这样的关涉世界的实践进程中,我们的经验“既是属于自然的,也是发生在自然以内的……在一定方式之下相互作用的事物就是经验……当它们以另一些方式和另一种自然对象——人的机体——相联系时,事物也就是事物如何被经验到的方式。因此,经验深入到了自然的内部,它具有了深度。它也有宽度而且可大可小。它伸张着,这种伸张的过程就是推论”。在此意义上,实践既有着呈现世界中对象的“深度”,也带给我们以语义推论的方式阐明这些对象的“广度”。涉身世界的实践活动是渗透意义的活动,这也将我们的“身体”和动物的“躯体”区分开来,用杜威的话说,“身体是生活的,如果是作为人类身体,还带有初步的人格的含义”。

  实用主义式的对实践的强调似乎在支持塞尔的论证:如若人工智能的算法语汇仅是形式的,它无疑不具有涉入世界的深度,不具有在语义维度理解世界的广度,也不具有人格意义的身体,从而不可能获得心灵。

  算法语汇作为一种实践语汇

  然而,如若人工智能的算法语汇也能够算作一种实践语汇的话,那么塞尔的论证以及实用主义的实践观将变为支持通用人工智能的理由。新实用主义者布兰顿便持有将算法语汇视为实践语汇的立场。布兰顿指出,“支持AI体现的是这样的主张,即原则上来说,计算机能够做所需的事情,从而使用自动语汇……说出什么”。这里的“什么”就是计算机的“意向内容”。从而,布兰顿认为,句法、算法语汇是一套我们据之从事“做的活动”的实践语汇,进而也能构成语义语汇,乃至心灵的充分条件。

  布兰顿立场的理由同样源于实用主义的实践观,如杜威阐释的那样,实践既是一个在因果层面打开世界的过程,也是一个在语义层面阐释世界的过程,并且这两个过程是同一枚硬币的两面。这里暗含着一种深刻的世界观,即语言和世界一道生成,在这一过程中,意识、心灵以及社会规范也在互惠的相互关系中一道成熟和发展。

  在初始的一类语用语汇如维特根斯坦“石板游戏”中,助手在听到建筑师发出“石板”的声音而对某对象做出可靠的有差异的反应。此时,“在语言课中发生的是这个过程:学习者命名诸对象。也即,当教师指向石料时,他说出语词”。这里的“石板”语汇相当于一套引导指令(bootstrapping)或算法语汇,用于将“事物视为某物”(即将坚硬的板状石料作为“石板”)稳健地识别出来;当指令愈发清晰时,对象得到愈发确定的界定;随之,对象的确定性将原先单纯的“声音”作为某种指令或概念而清晰地固定下来。

  布兰顿认为,人工智能同样可以使用语汇进行“实践”,完成如石板游戏中“助手”所做的事情。他的算法实用主义(algorithmic pragmatism)立场认为,“对人工智能模型做出实质的算法的实践阐释值得关注,这是因为这项阐释清晰揭示了根据知道—如何(knowing-how)来解释知道—什么(knowing-that)的实用主义纲领”。简言之,布兰顿认为,人工智能使用算法语汇也是在用语用语汇“做”事,就如助手在初次玩“石板游戏”时一般,初时“石板”仅体现为一套引导指令,助手此时不具有意向性,“石板”语汇亦非语义语汇。如果“石板”语汇能够成为一套初始语汇,并且这种语汇能够构成语义语汇的充分条件,那么句法、算法语汇也可以;进而,助手能够获得心灵的话,那么人工智能也将可以。

  布兰顿强人工智能观的三项启示

  笔者认为,我们可以从布兰顿的论证中获得三项重要启示。

  首先,布兰顿的论证实际上“降低”了“智能”的准入门槛,即从“仅仅只有人类智能才是智能”降低到“如果符合智能生成的条件,那么便可能生成智能”。但这种“降低”并非“贬低”。布兰顿的论证体现了人工智能哲学研究的另一关键面向,即对人类智能本身进行反思,祛除其中的神秘性以及问题的模糊性,从而既增进了我们关于自身的理解,也在人工智能研究上避免了诸如“人类中心主义倾向”问题。这类问题体现为仅将心灵理解为人类心灵,仅将实践理解为人类实践,仅将生成智能的物理基础理解为人类或有机体独有的因果信息。

  其次,我们应该在人工智能的哲学研究中抛弃塞尔“大脑导致心灵”的观点。需要澄清的是,笔者为这一判断添加了限制条件:在人工智能的哲学研究中。本文的讨论并未反驳诸如基于脑科学研究来解释心灵的研究进路,而仅是在敦促放弃将人工智能视为对人类智能的模拟或复绘的“窄”(narrow)智能观。布兰顿的论证为我们提供了关于人工智能的“宽”(wide)的理解,以及一种相应的“宽”的心灵观,这种观念既为强人工智能的可能提供了哲学依据,也界定了哲学家和科学家工作的不同分工。

  由此,我们从布兰顿的论证中得出的另一个启示是,关于人工智能的哲学探究不应迷恋人工智能能否在神经元层次模拟大脑之类的问题,这类问题是认知科学家而非哲学家的工作。诉诸科学成就或许能够增进我们关于心灵和意识的理解,但在哲学层面上,我们必须首先进行一道严格的理论审思:反思新的经验素材是否实质上撼动或增进了已有的哲学理解。如若缺乏相关的学理支持,那么诸如“神经美学”之类的标签将仅仅意味着一种十足的胡说。

  本文以实践为视角考察了人工智能是否可能具有心灵的问题。我们看到,相关的讨论不仅涉及关于人工智能问题本身的理解,还牵涉关于我们自身的心灵及其同世界关系的理解。在哲学层次进行相关考察十分必要,这些考察既可为实证的研究提供理论基础,也可避免实证研究的一些误区。例如,如若我们成功论证通用人工智能不可能,那么讨论它是否需要负法律或伦理责任,就是一个非法的论域。当然,人工智能究竟能否演化出心灵,仍然是一个需要我们多加讨论的开放问题。

  (本文系上海市教委2019年度“晨光计划”项目(A类)“实用主义视阈下的认知科学研究”(19CG76)阶段性成果)

  (作者单位:上海社会科学院哲学研究所)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026