正确看待和运用ChatGPT
2023年03月06日 06:28 来源:《中国社会科学报》2023年3月6日第2603期 作者:本报记者 王悠然

  ChatGPT面世后火遍全球,从软件工程、数据分析、金融财务、保险、咨询到市场营销、媒体、法律、医疗、科研,都在谈论ChatGPT。ChatGPT多元且强大的功能展现了人工智能发展速度与水平,但人们也应看到,ChatGPT与其他前沿技术工具一样,有局限性和潜在风险。

  使用不当会起到负面作用

  美国内布拉斯加大学奥马哈分校公共管理学院教授陈哲佑(Yu-Che Chen)与马萨诸塞大学波士顿分校公共政策与公共事务系副教授迈克尔·J.安(Michael J. Ahn)表示,ChatGPT的强项是总结概括,并不擅长对缺乏数据的新现象提供见解、建议。

  虽然ChatGPT潜力巨大,但高度依赖ChatGPT可能减弱人对特定类型事实的记忆力和思维批判能力。人类可以借助ChatGPT来理解复杂政策,更高效地获取个性化的公共服务,但若过度依靠ChatGPT,其数据库之外的重要政策信息将被忽视。

  ChatGPT可以轻松归纳出英语文学中最有影响力的10部作品的情节、名句,并分析作品的意义,但阅读这种总结并不等同于阅读原作。如果这种简单化、统一化、通俗化的“简洁版”成为读者的唯一选择,会给社会带来多方面的影响,包括信息和知识的交流与理解方式的改变。在教育和科研领域,ChatGPT可能加剧抄袭现象、扼杀原创力,应该允许还是禁止ChatGPT在考试和论文写作中的应用、如何将ChatGPT纳入教育和科研政策是教师和学者必须探讨的问题。

  据美国智库布鲁金斯学会技术创新中心研究员亚历克斯·C.恩格勒(Alex C. Engler)介绍,由于ChatGPT等生成式人工智能功能强大,许多企业希望将此类技术用于商业用途,例如编程、视频游戏环境设计、语音识别和分析等。生成式人工智能商业化的一个关键问题在于,开发商对最终产物的功能、技术研发机构和产品,可能并没有足够的了解和控制。上游研发者未必知道原始模型经改写、整合入更大的系统后会被如何使用,下游开发者经常高估原始模型的能力;因此,合作过程中出现错误和意外的概率会上升。

  当错误后果不严重,如商品推荐算法或存在人类审阅环节,风险尚可接受。但当多机构参与的人工智能商业应用扩展至影响深远的社会经济决策时(教育机会、招聘、金融服务、医疗等),政策制定者必须审视风险,权衡利害。同时,生成式人工智能研发机构无法确定风险,就应在服务条款中清楚说明并限制可疑应用。如果合作得到监管机构的批准,上游研发者和下游开发者应前摄性地分享运行和测试结果等信息,以保证原始模型得到恰当使用。

  生成式人工智能引发的另一类风险是恶意使用,例如不当言论和传播虚假信息、网络攻击。这类风险在数字生态系统中并非新现象,但生成式人工智能的流行或将加剧恶意使用人工智能的问题。

  避免ChatGPT延续不平等

  新西兰梅西大学科学传播学副教授科林·比约克(Collin Bjork)谈道,ChatGPT等人工智能工具生成的内容将改变人们的写作方式,但无法在语言和内容上有所突破。从目前来看,工具写作的内容同质化且无趣,还可能加剧偏见和不平等。例如,据美国新闻网站“商业内幕”报道,美国纽约市的一位高中教师在一项实验中让ChatGPT创建教案,但学生不喜欢ChatGPT生成的学习材料,称其“含有偏见且非常枯燥乏味”。

  长期以来,使用标准英语的白人男性主导着新闻、法律、政治、医学、计算机科学、学术研究等诸多领域,他们产出的文本远远多于其他人群。尽管OpenAI并未公开其训练数据来源,但英文“标准”的白人男性的作品可能是ChatGPT等大型语言模型的主要训练语料。当然,ChatGPT能够处理多种语言,但问题并不在于它能够做什么,而在于其默认设置。ChatGPT“出厂”时已被设置写作范式,若想让它生成非规范文本,需要给出特定的指令。这一问题也见于ChatGPT的“姐妹产品”DALL·E 2中,这款人工智能图像生成工具同样由OpenAI开发。当被要求绘制“敲击键盘的手部特写”时,DALL·E 2生成了几幅白人男性的手部图片;输入更多提示后,它才生成其他肤色的手部图片。

  有人认为,ChatGPT等自动文本生成工具能帮助人们避免因写作不合规范而错失学业和职业机会。在比约克看来,人们不应屈服于既有的不公正。事实上,写作本身就会加剧不公正。加拿大英属哥伦比亚大学英语语言与文学系教授爱丽丝·德·蓬加·萨默维尔(Alice Te Punga Somerville)曾说,无法摆脱历史上的和仍在进行的暴力是写作的一个困境。但她主张的不是放弃写作,而是批判性地、创造性地利用写作来反抗压迫。比约克建议人们拥抱语言多样性及其带来的丰富修辞可能性,利用ChatGPT等新工具来书写更加公平公正的未来。

  意大利博科尼大学计算机科学系助理教授黛博拉·诺扎(Debora Nozza)说,“我们过去的研究发现,当自然语言处理模型被要求补全一个主语是女性立场的中性句子时,模型经常使用伤害性词语;当主语是性少数群体时,使用伤害性词语的情况多达87%。在这一点上,ChatGPT较前代有所改进,但如果人们提出‘正确’的问题,它依然会生成歧视性内容。我们必须想办法从根本上解决这个问题”。

  ChatGPT不是知识权威

  加拿大布鲁克大学政治学副教授布雷恩·哈格特(Blayne Haggart)提出,ChatGPT作为一种信息获取途径,除了可能使论文剽窃、作业和考试作弊更“便捷”,另一个至关重要的问题是生成信息的真实可靠性。我们可以想一想,为什么某些信息来源或某些类型的知识被认为更加可信?新闻工作者、学者、行业专家的公信力来自他们调查事实、提供证据、具备专业知识;即使这些人有时也犯错,其职业依然具有权威性。评论文章虽然不像科学论文那样必须包含大量引用,但负责任的作者仍会指明信息和观点来源,且这些来源是读者可以核实的。

  ChatGPT与人类作者产出的内容有时非常相似,因此人们难以分辨内容的出处,将它视作可靠的信息来源也就不难理解,但其实两者的工作原理并不相同。ChatGPT及同类语言模型从海量训练数据中学习上下文的联系,最基本的一点是对词语序列的概率相关性建模,即根据已输入的语句预测接下来不同语句出现的概率分布。例如,ChatGPT在“牛吃”后面接“草”,在“人吃”后面接“饭”,不是因为它观察到了相应的现象,而是因为“牛吃草”“人吃饭”是出现概率最高的组合。

  “对于语言模型来说,词语仅仅是词语。ChatGPT等较新的模型产出的内容质量高,令人类相信它们理解自己在写什么,但事实是它们只是在生成从训练数据中学习到的最有可能的句子。”博科尼大学计算机系副教授德克·霍维(Dirk Hovy)说。哈格特强调,就ChatGPT这类工具而言,“真实”是相关性的真实,人们无法真正核实来源,因为它们的来源是统计学事实。

  博科尼大学管理与技术系助理教授希瑟·杨(Heather Yang)介绍说,人们有时将ChatGPT当作同类,在某种意义上讲这种心态是自然的。人类是社会动物,这也是人类繁荣的原因之一;以社会性方式互动是人的本能,即使对方是机器。心理学研究显示,人们会根据交谈的对象听起来是否自信、其推理是否顺畅来判断对方所讲是否可信。由于ChatGPT展现出自信的态度和流畅的表述,人们会误以为无需核实其生成的内容。

  哈格特说,从知识生产的政治经济学角度看,过分相信ChatGPT将对“科学的大厦”和社会的整个信息生态系统构成威胁。无论ChatGPT产出的内容多么连贯、通顺、看起来符合逻辑,也不应将其与人类采用科学方法验证过的知识完全等同起来。学者和新闻工作者更不可不加说明地将ChatGPT生成的文本放入自己的作品中,因为读者很可能被误导,混淆连贯性与真正的“理解”。

  完善监管胜过一味担忧

  陈哲佑和迈克尔·J.安还提到,ChatGPT有可能引起劳动力市场震荡,因为生产等量信息需要的人力更少了。不仅是从事重复性强、可预测性强的程式化工作(例如行政、客服)的人类劳动者容易被取代,从长期来看,对受教育程度和人类智慧有较高要求的职业,如写作、编辑、新闻记者、翻译、法律服务、科研等,也有可能受到冲击。即便是在计算机行业,ChatGPT已经能够使用Python、C++、JavaScript等常用计算机语言编写代码并识别已写出的代码中的错误,这使人们不得不质疑软件开发人员和程序员的未来。虽然ChatGPT不太可能完全取代这些岗位上的人类,但今后或许只需要少数人来审查、修改和编辑ChatGPT或类似的人工智能工具编写的代码,用人需求明显下降。

  在美国哈佛大学心理学系教授、大众科学作家史蒂芬·平克(Steven Pink)看来,“人类是否会被人工智能取代”不是一个恰当的问题表述,因为不存在涵盖一切智力活动的单一维度的智能衡量指标。人们会看到适用于特定目标、特定情景的各种人工智能,而非一个全知全能的“神奇算法”。

  美国纽约大学心理学与神经科学荣休教授盖瑞·马库斯(Gary Marcus)和计算机科学教授欧内斯特·戴维斯(Ernest Davis)在一组实验中观察到,ChatGPT生成的内容可能含有偏见和歧视,也可能是“无中生有”或似是而非;ChatGPT无法推理真实的物理世界,无法将人类的思想过程与性格联系起来,也无法确定故事中的事件顺序。“ChatGPT是一个概率性程序,如果重做这组实验,可能得出相同的错误答案、不同的错误答案或正确答案。”两位学者说。

  平克谈道,人们对超级智能有着丰富的想象,但现有的人工智能使用的是在特定情景下解决特定类型问题的算法。这意味着它们在某些方面比人类强,在另一些方面则不如人类,今后大概也会是这样。另外,人类对于智力产品(例如文学作品、新闻评论)的原真性有更强烈的需求,受众与真实的人类作者之间的联结感赋予了这些作品可接受性和地位。

  “人们对新技术的恐惧总是由最糟糕的预测情景驱动,并未考虑到真实世界中可能产生的对策。”平克说。对于ChatGPT这样的大型语言模型,人们或将形成更强的批判意识,制定相关的伦理和职业守则,研发能够识别自动生成内容的新技术。人工智能是对人类智能的模拟,但其运作方式、优势和弱点与人类智能不完全相同,这种对比或可加深我们对人类智能之本质的理解。

  恩格勒说,ChatGPT等生成式人工智能带来了一些全新挑战,最佳应对政策是什么尚不明确。如果研发机构公开更多有关研发过程的详细信息并解释它们是如何开展风险管理的,或可为政策讨论作出贡献;对大型人工智能模型的开发商加强监管,例如要求其承担信息分享责任、建立风险管理体系,也有助于预防和减轻危害。此外,生成式人工智能的发展本身也为更有效地干预创造了机会,尽管相关研究刚刚起步。恩格勒指出,没有哪一种干预措施是万能的,但要求人工智能研发和商业化机构给社会带来更多正面影响是合理的。

  陈哲佑和迈克尔·J. 安表示,总体而言,ChatGPT是一个强大的工具,或将变革人们处理信息、交流、工作和生活的方式。提供情境化信息、理解用户问题背后的意图、有针对性地满足用户需求,是ChatGPT与传统搜索引擎相比的关键优势,也是人工智能技术的重要突破。OpenAI现正继续改进ChatGPT、升级其背后的技术,其他人工智能技术研发机构也在开发相似的工具;与此同时,人们必须关注这项新技术的社会影响并防范风险。

  ChatGPT的创始人山姆·阿尔特曼(Sam Altman)如此评价自己的“天才之作”:“ChatGPT有着令人难以置信的局限性,但在某些方面非常出色,足以给人一种了不起的误导性印象。目前,依赖ChatGPT来做任何重要的事情都是错误的。它是进步的预览;我们在稳健性和真实性方面还有许多工作要做。”这份评语或许可以作为人们现阶段如何恰当地看待和运用ChatGPT的提示。

责任编辑:常畅
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026