ChatGPT:多维思考与审慎应用
2023年03月21日 10:03 来源:《中国社会科学报》2023年3月21日第2614期 作者:李帅

  ChatGPT问世后不久,一度成为文化和科技领域的轰动事件,在社会上引发了广泛讨论。该系统能够基于书面提示自动创建文本,受到很多使用者的欢迎。国内外科技企业也争相效仿,纷纷推出类似的人工智能系统。但是,像ChatGPT这样的生成性人工智能系统,在社会层面以及学术界产生了诸多问题。那么,这项技术将如何影响论文在教育中的作用?表现惊人的ChatGPT是否已实现通用人工智能?这些问题需要加以讨论和厘清。此外,抛开这些较为宏大的问题,我们还需要重点关注ChatGPT引发的科研诚信问题。

  退化抑或革命 

  在过去的几年里,大型语言模型引发了一场关于其伦理影响的日益复杂的学术辩论。随着OpenAI在2022年底发布了ChatGPT,这种讨论现已成为一种潮流。当ChatGPT接收到指令后,可以快速生成文本,且文本大多语言流畅、转折自然,这种表现令人印象深刻。然而,在进一步的对话中,很快就会发现它的一些缺点。比如,它可能会犯低级的事实错误,以及相同的短语不断重复等。尽管如此,但第一次与此类聊天机器人互动时,依旧会使人难抑赞叹之情。ChatGPT发布后不久,很多人就提出了有关其影响的各种问题。比如,随着这些人工智能系统在编写代码方面愈加完善,软件工程师是否会失业?会对知识工作者带来怎样的影响?类似的疑问有很多,有些是老生常谈,而有些则颇具新意。

  在文本生成方面,看待ChatGPT的一种方式是,将其视为学术界在进行研究和撰写论文时,工具箱中不断增长的可用的工具中一种新的趁手工具。比如,可将其视为能够直接回答问题的搜索引擎。有人可能会用ChatGPT来进行某种“创作”:提供新作品的初稿。但是,ChatGPT也有很大的局限性。它有时会给出错误的答案,可能对提示措辞中的细微差异过于敏感,还可能会给出缺乏关联度的答案,以及给出没必要的长篇大论等。这些缺陷限制了它作为研究工具的效用。由于担心ChatGPT和类似软件可能会在生成的文章中捏造数据等,目前数以千计的科学刊物出版商已禁止或限制投稿人在论文撰写中使用以人工智能驱动的聊天机器人。并且,一些高等院校也将由ChatGPT生成的作业判定为剽窃或抄袭。

  另一种思考ChatGPT的方式则强调其革命性。诚然,ChatGPT在撰写科学论文方面可能并不比一般科学家更好。不过,有人认为,鉴于人工智能近来取得的指数级进展,为未来的大型语言模型早做准备可能是明智的。我们可以从棋类项目中看到类似的发展。起初,只有少数人相信计算机可以胜过人类棋手。然而,在1997年,IBM的深蓝击败了国际象棋世界冠军卡斯帕罗夫。同样,在2016年,DeepMind的AlphaGo击败了围棋世界冠军李世石。因此,在一些技术乐观者看来,虽然ChatGPT目前尚不完美,但却为未来的技术发展指明了方向。他们甚至认为,也许撰写科学论文只是计算机可能学会的下一项比人类表现更佳的智能活动。

  通用人工智能言之尚早 

  按照技术乐观者的期望,ChatGPT是否正在通向通用人工智能的康庄大道?图灵在1950年提出了后来被称为“图灵测试”的想法,是否通过该测试已成为衡量人工智能智力程度的重要指标。要想通过测试,机器需要能够以一种人类对话者无法将其与人类区分开来的方式进行对话。该项目的难点体现在,为通过测试,需要满足两个条件:对人类对话中的差异做出适当反应;表现出类似人类的个性与意图。

  在20世纪70—80年代,学界对人工智能的研究一度充满热情,但因真正有用的人工智能应用系统迟迟未能面世,这种热情在长时间的挫折中逐渐消退。或许,历史总是带有些许的周期相似性。当前,我们再次经历着兴奋期——深度神经网络、机器学习技术和以ChatGPT为代表的各类人工智能算法模型的新进展,再度激发了大众的热情。但我们也不应盲目乐观。在这些新进展的激励下,也有一些我们暂时无法逾越的鸿沟,特别是在自然语言处理领域的一些问题。

  复杂的语言系统是人类智能的一个显著特征,并且语言与思想有着密切的关系,甚至在某种程度上可以说,“语言是思想的载体”。若机器无法“理解”人类语言,高阶智能就无从谈起,更不用说通用智能了。首先,我们认为,由于数学上的原因,目前还难以给一台能够掌握极其复杂和不断变化的人类对话模式的机器编写程序。其次,人类的对话中掺杂着个性和动机,但我们目前还不知道如何制造出具有人类个性和意图的机器。既然图灵机不能掌握人类的对话行为,我们便可以得到一个安全的结论:目前问世的聊天型对话系统不能达成所谓的通用人工智能。人类认知本身不只是一个关乎存储和计算的问题。

  此外,塞尔(John Searle)的“中文屋论证”表明,即使一台机器的编程方式能够完美地模拟人类在进行对话时的行为,也不能真正拥有人类的智能。塞尔由此认为,那种机器与人类的理解或人类的意识有相似之处的观点是存疑的。尽管人们做了大量工作,但迄今为止还没有计算机系统能够实现接近人类对话的仿真模拟。即便是ChatGPT,还是显露出聊天机器人皆有的根本缺陷:机械性有余,灵活性不足。ChatGPT并非理解文本的意义并以此作出正确甚至精准的回答。正如OpenAI所警告的那样:“您得到的答案可能听起来似是而非甚至是权威的,但它们很可能是完全错误的。”

  毋庸置疑,今天智能机器所拥有的存储容量和计算能力已远超图灵所预估的“学习机器”,但一些情况依旧没有多大改观。我们认为,这一领域中过分的乐观主义,一方面是出于对人类认知行为不切实际的看法,另一方面则是看到了强化学习、数据集扩张、算法更新等方面取得的一系列令人惊叹的成功,如在围棋或电子游戏等领域的进展。与这种乐观情绪相反,人们在试图制造能够与人类进行高效对话以至于达到通用人工智能阶段的机器时却屡遭失败。目前,技术乐观派鼓吹通用人工智能还言之尚早。

  关注科研诚信问题 

  由于人类语言的极端复杂性,各类对话机器人很难真正实现自然语言处理,更不用提知觉、情感、感官等。ChatGPT只是个预训练语言模型,它只能从已有的训练样本中提取、整合信息,而不能真正地产生新的知识。在这一进路上,通用人工智能和超级人工智能遥不可期。况且,ChatGPT并不是横空出世的产品,其迭代前的GPT-3就曾引起过舆论轰动。每当有被包装过的新技术或产品问世,总会刮起一阵旋风,但往往不久便会停息。我们不必着急预测某项技术或产品能否带来所谓划时代的意义。

  抛开宏大叙事,这个议题背后所引发的一些具体后果可能更值得我们深入考察。ChatGPT肯定会有一些积极的作用。比如,教育工作者可以学会使用ChatGPT,将其作为一种工具帮助学生就某一具体问题进行探索。但目前需要重点关注的,是其日益暴露的显性问题。生成性人工智能在文本生成和编辑方面拥有巨大潜力,如果被使用者滥用在学术写作或新闻报道方面,会带来诸多不良影响。因此,针对大型语言模型及其对科学出版可能产生的影响,我们需要进行前瞻性研究。目前的困境是,在获得此类研究结果之前,我们只能对大型语言模型的特性和预期影响进行一些直观的、常识性的评估和判断。

  若将ChatGPT等生成性人工智能作为一种研究工具,在科研诚信方面会引发一些担忧。比如,这会带来事实不准确、剽窃、欺诈和侵犯版权等风险,可能导致科学失去严谨性,科技工作者的劳动也可能因此变得不被尊重。在科研领域,对ChatGPT等生成性人工智能的审慎应用,是一种负责任的态度。不少学术期刊和科研机构已经开始制定和实施一些可行的方案,解决或应对与ChatGPT相关的研究诚信问题,但未来的防范和治理工作依旧任重而道远。

  (本文系云南省教育厅科学研究基金项目“人类增强技术的伦理规制研究”(2023J0083)阶段性成果) 

  (作者单位:云南大学马克思主义学院) 

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026