与机器共情:将人类意图与智能工具相结合
2023年03月06日 11:06 来源:《中国社会科学报》2023年3月6日第2603期 作者:韦斯利·J. 怀尔德曼(Wesley J.Wildman)/文 白乐/译

  人工智能生成文本是一项变革性和颠覆性的技术,它的出现及飞速发展将对科研、商业、政治和人际关系等诸多领域产生深远而持久的影响。近年来,各国的教育部门都在努力避免席卷全球的技术驱动变革对传统教育的冲击,然而,此次ChatGPT为传统科研领域带来的巨大变革及其影响似乎无法避免,新一代大型语言模型的快速发展将大大加强微软和其他科技公司例如HereAfter和DeepBrain AI在数字永生技术方面的投资。在未来,思考人与机器之间的新型互动方式将成为永恒的主题。

  ChatGPT改变众多行业生产模式

  由于每一代GPT模型的参数量都在保持动态变化并基于web端不断更新换代(ChatGPT基于GPT-3.5,而微软宣布即将把GPT-4整合进其旗下的搜索引擎必应Bing),这对学者进行基础研究将大有裨益。通过高效地生成样板文本,这些聊天机器人可以即时为研究人员提供论点和证据,以及提供网络搜索引擎或图书馆索引搜索难以查询到的研究材料及专业文献。它们能够为学者的论文写作提供完整的参考书目并帮助学者发现其可能遗漏的观点,从而协助科研人员提升写作细节。

  就像文字处理器淘汰了打字员一样,任何依赖文本生成的工作都可以被ChatGPT改变。尤其是那些需要通过大量信息处理来规划主题的工作——例如记者在撰写报道的早期阶段所做的资料收集工作——ChatGPT可能比人类做得更好。可以说,ChatGPT通过了新闻、法律、医学和计算机工程等领域的标准考试。就像将工作外包给劳动力成本较低的国家改变了全球商业模式一样,将文本生成外包给ChatGPT可能会改变众多行业的生产模式。

  ChatGPT为人们日常生活带来的便利涵盖学习、工作等多个方面。人工智能工具不仅会在口头上,还会在视觉上以各种物理或虚拟形式参与人际关系,以接近于人类的方式进行交流。目前开发出的版本已经在模拟情感方面表现得令人惊艳。它们擅长抱怨、开心、搞笑、生气、沮丧。在某些方面,人工智能聊天机器人可能会成为比人更好的心理咨询师。一些智能机器人已经成为老年人对抗孤独的伙伴,而ChatGPT的出现将极大增强智能机器人在社交方面的能力。

  教育界掀起“忧虑之风”

  当科学、技术、工程等适应了长期嵌入于算盘、计算尺、计算器和计算机上运行的传统数学软件时,教育工作者可能在短时间内对ChatGPT产生抗拒心理,但新一代学生面对这些新奇事物表现得泰然自若,并形成了全新的思维方式。不得不承认,AI文本生成的效果十分出色,以至于在教育人士之中掀起了一阵“忧虑之风”,尤其是对AI工具可能带来的剽窃问题表示深切担忧。这种数据化的外部干扰打破了传统的学习模式,教育界正在试图尽快对ChatGPT带来的教育现实变革做出回应。一些大学已经禁止了ChatGPT的使用,另一些大学在不损害诚信和公平的情况下,将ChatGPT合理地纳入高校教育体系之中。

  剽窃的道德准则似乎相对清晰且容易界定,然而,ChatGPT等自然语言处理工具所带来的隐患使得剽窃的概念变得相对复杂。例如,我们通常会鼓励学生与朋友交谈,以激发富有创意的想法并完善写作思路,从而在思想的交汇与碰撞中以更有深度的方式进行学习。那么,和聊天机器人进行同样的学习对话算是剽窃吗?学者们经常被鼓励通过全面的资料收集来挖掘研究中“隐匿”的角度及观点,如果一个学者使用ChatGPT从堆积如山的材料中筛选出有用信息并提取出精华内容,且涉猎到许多他们平时无法获取的知识,这算是剽窃吗?这些问题都值得当下学界深思。

  几个世纪以来,教师一直习惯于教学生如何通过自主写作来进行独立思考。通过自主写作,人类的思维过程得以阐明,想法得以充分表达,由此产生了合理的论点。在相互讨论与思想交换之中激发了新的想法。从古埃及莎草纸到书籍再到电脑,随着辅助我们认知范围扩展的物体变得越来越复杂,人类学习思考的方式也随之改变。然而,通过自主写作来独立思考、通过独立思考来进一步加强写作的模式,将作为各学科基础教育的支柱而永远存在,无法被任何语言模型或智能产品代替。

  带来不可预测的负面作用

  从行为学的角度而言,ChatGPT在不理解语义学、篇章学的情况下完成人类交由的任务并影响着今天世界的运行方式。在任何涉及文本生产的行业中——法律、医药、科技等——海量的文本都能以“立竿见影”的速度进行创建。纵然,人工智能文本生成器能够产生惊人的创造性和类似人类情感的结果,但它们无法从根本上理解其所生成的词汇、句子、文本的含义,因为这些经过强化学习训练的文本在本质上由算法和概率驱动。聊天机器人擅长建立书目,擅长创作小说,然而它们不具备真正的人类意识,不具备任何感觉或思想,因而无法实现真正的创造力与洞察力。为了在真正意义上提高其洞察力和新颖性,聊天机器人还需要从语义角度对文本内容有更深层次的把握和更透彻的理解,而现有一代ChatGPT还无法实现这一点。

  必须指出的是,在大幅提升读写速度及效率的同时,ChatGPT的广泛使用将带来许多可预测和不可预测的负面影响。正如工业革命在深刻改变人类生产方式的同时,为人类生存环境和日常生活带来诸多危机一样,人工智能工具包括ChatGPT等文本生成器及其衍生产品也将对全球经济产生难以估量的破坏性影响。例如,鉴于ChatGPT在软件工程领域编写代码方面表现出色,其后代衍生产品可能会遵循某些人为设计的指令,利用网络安全弱点进行计算机系统攻击。

  在短期内,ChatGPT等聊天机器人通过对话可以极大地增强错误信息生成的力量及扭曲科学事实的可能性。这些聊天机器人可以被设计成友好和值得信赖的对象,这让它们更容易欺骗人类。其他人工智能工具的技能例如AI拟音和视频模仿等也会导致类似后果,这必然会导致混乱、不信任甚至伤害。从长远看,我们可能会认为听到、看到和读到的一切信息都是虚构的,除非它们以某种明确被授权的方式发布。对于应该相信什么应该质疑什么,人们无从知晓答案,更多的人将会对真理和谬误的界限产生怀疑,这会让我们感到十分困惑。

  要防范并控制ChatGPT可能带来的风险——尤其是当其技术更为成熟时——需要从管理其访问权限入手。例如,如果用户想控制ChatGPT参与法律程序或医疗护理的可能性,就应该从根源上切断其数据访问权限。OpenAI为ChatGPT创建了一个内容审核系统,以便其内容输出与人类常识和广泛共享的人类价值观相一致。然而,黑客们一直在试图破解系统漏洞以绕过内容审核限制,且在实践中取得了成功。OpenAI一直在试图阻止这些黑客行为,然而依旧会有很多聊天机器人未经过任何内容审核,其言论能否受到有效监管还有待观察。某种程度上,这是一个全球性问题而非某一国的问题,毕竟ChatGPT已经支持大约100余种语言和多种编程语言,且在全球大多数国家都可以使用。

  与机器共情并产生心理联结

  当然,人类无须担心《黑客帝国》电影中那样超越人类并奴役人类的“有意识的机器”出现。ChatGPT等聊天机器人将作为一种无意识的超级智能机器而存在,它们在不理解人类给出指令的背景信息的情况下,严格遵照人类指示去完成任务,却永远无法获得人类独有的智慧、创造力和主观意识。

  在利用这些机器辅助思考并处理人类自身无法完成的事务的同时,人类应当用自己的声音和身体学会巧妙地质疑和控制它们,让其为人类自身所用。我们所需要掌握的一项重要技能,就是让人工智能的任务目标与人类的认知需求相一致。实现这种一致性,并将人类意图与智能工具结合起来的能力在未来颇为重要——与机器进行共情并产生心理联结是人类必须学习的一种全新技能。在不远的将来,人们知道如何用智能机器把文字写得优美而清晰,就像知道如何靠星星导航,如何用工具生火,如何用树干刻独木舟,或者如何为孩子们吟诵古老的童谣一样将成为简单日常生活的一部分。

  (作者系美国波士顿大学哲学、神学与伦理学教授兼计算与数据科学学院教授)

责任编辑:常畅
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026