ChatGPT与信任的未来
2023年03月07日 10:21 来源:《中国社会科学报》2023年3月7日第2604期 作者:闫宏秀

  随着数字技术的不断发展,技术本身已超越了传统意义上仅代替人类危险、恶劣、枯燥乏味工作的层级,而是以更加符合人性的方式不断满足人类的多样化需求。生成式人工智能以一种颇为微妙的方式,使个性得以展现的同时又被压制。近期,ChatGPT正在以便捷且易用的问答模式成为人工智能进入人类日常生活的一个鲜活案例,并将展现与压制两个维度再次推到了一个新的高度。说其展现是指,人与技术互为操作性,为个性的释放提供了更多可能性。说其压制是指,技术理性构筑的环境使人类被框在技术逻辑之中。在这样一种情境中,其所提供的回答是否可信?在人类与技术的双向融合中,技术渐渐成为信任的一个有力证据。那么,信任的基点可否是技术理性的逻辑?

  信任与技术的关系

  在ChatGPT发布后不久,注册用户的激增引发了社会热议。无论是诟病还是赞美,无论是恐惧还是欢呼,事实上都是对其是否可被接受进行的尝试与注解。ChatGPT作为一个人工智能模型,基于数据、算法与算力为用户提供信息。因此,对其接受度的考察,可置于当下的数字化转型之中。在数字化转型进程中,数据主义将数据视为一切的标尺。同样,人类的信任建立在数据科学与数据技术的基础之上,智能化技术成为人际信任形成的一项甚至全部考量。与此同时,数据科学与数据技术的不完美性(或曰不稳健性)成为对其进行质疑的重要原因。易言之,技术的缺陷引发了对上述信任的反思。事实上,在米切姆(Carl Mitcham)关于人与技术关系的探究中,“对技术活动的不信任或不安的伦理方面的观点”,可以追溯到古希腊,并绵延至今。

  在做出关于ChatGPT接受与否决定的过程中,对技术的不信任或不安也一直贯穿整个过程。比如,巴黎政治学院、牛津大学等高校基于ChatGPT生成文本的能力与人类的相似性及其参与度等尚未有明确的评估与说明,禁止ChatGPT用于学习和考试,若使用则将被视为作弊。很显然,这种态度突出了ChatGPT对现有教育信用体系构成的威胁,以及师生之间的信任关系即将面临的新挑战。随后,技术界提出用研发更新的技术来检测ChatGPT是否用于学习和考试,以甄别学术不端。事实上,这种方式恰恰是将信任形成再次推向了技术理性的逻辑。

  那么,这样的逻辑是否成立?面对技术的发展,卢曼(Niklas Luhmann)认为,不要再期望在文明的进程中,科学和技术发展可使事件在可控范围之内,用对事物的控制取代作为一种社会机制的信任。相反,信任作为应对技术在未来可能带来的复杂性的一种手段,人类对其需求将与日俱增。易言之,虽然人类的生存需要凭借技术,技术可以成为形成信任的一个要素,但信任的形成不应依赖技术。相反,技术的发展特别是技术本身所蕴含的不确定性,恰恰需要信任作为一种应对策略。因此,在信任的形成过程中,可以借助技术,但不能囿于技术理性之中。

  问答模式与单向信任

  ChatGPT作为一项基于数据库挖掘以及与人类交互而形成知识的智能工具,是基于已有的数据库和接收到的问题,提供或在更严格的意义上说是生成答案。在其答复问题时,会明确声明其是一个人工智能模式,并告知用户其当下所使用数据库更新的时间节点,警示用户其所提供答案也不一定准确,可能会产生有害的指令或蕴含有偏见的内容。在这样的条件下,ChatGPT的问答模式以双方沟通的合作方式运作,在用户的输入与答案的输出之间形成了知识链条。经过长期的训练后,ChatGPT可以形成类似斯加鲁菲(Piero Scaruffi)在2016年撰写的《智能的本质——人工智能与机器人领域的64个大问题》所提出的“结构化环境”。当今的智能导航系统就已形成了这样一种环境。

  在这样的环境中,当人类输入目的地之后,其余的环节以技术的逻辑自行展开。若人类依赖其完成任务,那么在完成任务的过程中,人类的决策与行为是在遵循技术逻辑的前提下进行人与技术的交互。此时的用户作为该技术的消费者,以参与者的身份介入其中。但一旦技术的逻辑开始运作,人类就会进入斯加鲁菲所说的“不需要‘思考’太多”的“有章可循”状态。这种状态蔓延的极致状态,就是在技术的回路中人成为圈外人,技术的逻辑构成信任的闭环,直接走向了单向度的信任。正如霍克海默(Max Horkheimer)和阿多诺(Theodor W. Adorno)所说:“在机器发展已经转变为机器控制的地方,技术和社会的发展趋向总是相互交织在一起,最后导致对人的总体把握,这种落后的状态也并非不真实的。”这样,信任的基点就是技术理性的逻辑,且信任的形成也囿于技术之中。当然,这种极致状态可被归为关于技术的人文想象,或许这种想象是过度的,所以这种信任的到来甚为遥远。

  然而,不可避免的是,ChatGPT的发展会出现如下两种现象。一种是人类在通过ChatGPT寻找知识的过程中,数据训练的结果表现出知识的同质性与思维的单向度。其中,知识的同质性是由数据库不断被格式化与标准化训练所导致,思维的单向度则是由这种同质性和人类在问答模式中长期扮演提问者的角色而导致,这种思维的单向度将走向信任的单向度。另一种则是若以对抗性的方式使用ChatGPT,信任的环境就会被破坏,进而导致信任本身成为一种“单向度”。

  信任的技术依赖

  在人类面对技术时,信任是人类经验与技术理性之间的博弈,而人类社会的深度智能化则使这种博弈出现了被技术逻辑所支配的趋势。近年来,关于以人为中心的设计、技术向善、确保技术为人类服务增进人类福祉等的呼声日渐高涨。这揭示了技术逻辑的日渐强大与人类对技术的审慎态度。当技术逻辑日渐强大时,信任的技术依赖度也将随之出现变化。这种变化大概率会使技术在信任形成中逐渐占据上风。易言之,曾经的智能助手变成了准主体。然而,值得注意的是,ChatGPT技术可信度是其获得信任的必要条件。其可信度的提升,一方面是正向的,即以正确的回答提升精准性;另一方面是反向的,即能够识别出欺骗与虚假信息。这种方式同样需要进行数据喂养,将对信任的技术依赖构成新的挑战,并催生着信任的脆弱性、不可靠性与虚假性。

  正如凯文·凯利(Kevin Kelly)在《科技想要什么》开篇的结语中所说,“我希望大家读了这本书以后,也能够找到自己的方式,让科技以最小的代价造福人类”。“科技想要什么”是通向人类幸福的一个问题,其目的或本质就是“人类想要什么”。信任是维系人类社会运转的一个必要条件。在生成式人工智能技术构成人类生存环境的情境中,人类想要什么样的信任?这个问题既是人类对生成式人工智能技术可信度的无限追求,更是人类对信任技术依赖模式的深层拷问。

  (作者系上海交通大学科学史与科学文化研究院教授)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026