以ChatGPT为代表的最新一代人工智能产品自上线以来,在各国学界掀起巨大反响。通过搜索发现,进入2023年以来,已经有超过500篇学术论文与ChatGPT有关,涉及数学、医学、计算机科学、语言学、伦理学、教育学、经济学、金融学、管理学、法学、新闻学等学科。综观论文内容,部分学者肯定ChatGPT给科学研究带来的多重便利性,但是对ChatGPT能否颠覆传统的科学研究方法与范式,学术界还普遍持谨慎态度。围绕人工智能产品在科学研究中扮演何种角色、是否会扩大人类研究范围、ChatGPT等人工智能产品的过度使用是否会削弱学者的研究能力和地位、如何对其进行有效监管等问题,本报记者采访了相关学者。
数字技术已广泛用于科研
自2022年12月起,有学者利用ChatGPT修改论文,并取得了满意的结果。这些学者认为,最新的语言处理模型不但可以捕捉学术文本中的概念并进行高质量的修改,还能提升学术论文的整体思路,使其变得更加清晰。甚至有学者认为,ChatGPT与其他人工智能工具可以帮助科研工作者提高研究效率。还有学者已经在日常的科学研究和教学中使用语言处理模型,如检查代码、收集资料、撰写科研资助申请等。
英国爱丁堡大学设计信息学数字文化遗产教授、《数字人文导读》主编梅丽莎·特拉斯(Melissa Terras)在接受本报记者采访时表示,自然语言处理技术问世已超过60年。现在,我们见证了技术“跨越鸿沟”,这意味着自然语言处理技术的应用对象从特定小群体的早期应用者走向更大的市场。学者必须接受新兴科技融入日常生活的事实,并找到工具的最佳使用方法。ChatGPT与现有的人工智能技术有着非常密切的联系,但有一点不同,即ChatGPT的用户可以通过提问来训练ChatGPT。因此,作为技术的使用者,大众拥有了更多控制技术的权利。此外,大众还能学习如何与技术展开对话,了解技术擅长处理哪些任务,明确人类比技术更加精通的事务。
北京师范大学数字出版与数字人文研究中心教授、英国伦敦大学学院信息学系数字人文荣誉教授西蒙·马奥尼(Simon Mahony)告诉本报记者,自然语言处理、机器学习和文本编码在数字人文领域和其他人文学科的应用十分广泛。通过XML进行文本编码是创建线上资源的基础,例如,可供搜索的数据库和在线文档。许多数字人文项目还以TEI XML作为通用标准进行编码,实现数据集的“互通性”和“互用性”。此外,自然语言处理数据集的规模让它有能力对语言和语言运用进行大量的统计分析。自然语言处理技术的应用领域十分广泛,包括人文研究、语言学、风格学、作者识别研究和词典创建等。
对人工智能辅助写作态度不同
谈到AI工具在科学领域中的作用时,有观点认为,ChatGPT更像是一位数字化的实习生,帮助学者进行数据收集、混合、清理和编译,以及对一些研究内容进行有洞察力的解释,然后学者可以据此进行更深入的研究。
相对于一些积极的观点,美国麻省理工学院数字媒体教授尼克·蒙特福特(Nick Montfort)对本报记者表示,大众把ChatGPT、Grammarly(一款语法矫正工具)、谷歌翻译泛泛地理解成“科技”,但其实它们并不是。严格来讲,它们只是商业收费服务而已,其中技术含量并不比电动汽车、手机多。
麻省理工学院修辞学教授爱德华·斯卡帕(Edward Schiappa)和蒙特福特共同撰文提出,在大学教学中,教师要充分理解人工智能和大型语言模型(Large Language Models)的能力和局限性。面对越来越多的学生借助ChatGPT写作的现象,斯卡帕和蒙特福特认为,学生将并非自己写的文章当作自己写的文章提交,虽然在某些特定情况下可以被接受,但是在学术领域,这种写作不应该被授权,因为这无法帮助教师推进学习目标,并使得评估学生成绩变得困难。此外,目前人工智能和大型语言模型技术给学生写作提供的帮助是模糊的,与教师提供的帮助相差甚远。写作和口语技能一直是学术成功的基础,如果本科阶段的学生没有在这两方面做好准备,日后也无法成为有效的沟通者。学生应该从日常学习中锻炼书写和口头交流中的核心技能,如创造性、风格、语法、逻辑能力、论据构建等。
在马奥尼看来,传媒在过度炒作ChatGPT。在ChatGPT技术发展成熟、树立起良好声誉之前,学者们应避免跟风评论这个话题。
人类的科研地位无法取代
随着部分人工智能产品逐渐应用于科研领域,它们是否会削弱研究人员的研究能力和地位,有文章认为并不会。因为当前的人工智能系列产品,包括最新的ChatGPT都不算一个完美的工具。ChatGPT的文本生成可能充满错误信息,但学术研究必须严谨。目前来看,人工智能产品如ChatGPT的应用价值,就是帮助学者从事最初级的工作,让他们有更多时间完成高级的科学研究任务。科研领域的工作包含定量研究和定性研究两个部分。自然科学研究领域存在大量的、需要同质化技能的部分,这些工作本质上也是通过公式化来完成的,所以这部分工作由人工智能产品完成可以节省更多科研人员的时间,提高他们的工作效率。但是定性和伦理推理的部分,始终无法由任何系统或者机器所取代。例如,在医学领域,诊断和理解医学测试结果需要更多专业人士参与。正如学者所言,人工智能产品,包括ChatGPT,非常擅长识别基于事实回答是什么的问题,而不能基于判断回答为什么的问题。学者的很多经验和理解、见解,根本无法进行编程。现在,越来越多的人在关注新科技产品应用的同时,更加关注该产品所具备的道德、伦理和创意思维。
马奥尼认为,当前人工智能似乎成了学者必须掌握的新颖“关键词”。人工智能技术在培训、打分和评估等领域被视为“救世主”,但马奥尼并不以为然。目前,社会已经逐渐意识到人工智能存在许多问题,特别是针对种族、国家和性别等问题。人工智能是否能拥有作者身份是一个值得探究的问题。其实,使用人工智能和数据源同样存在类似的道德困境。例如,研究人员通过线上文本源找到所需的文本,却在参考书目里引用该文本的印刷版本,而不是直接引用线上资源。这令人持怀疑态度。不但所有的数据集都存在固有偏见,数据集的编程人员和建构者也在创作中带入了无意识偏见,纠正数字歧视还有很长的路要走。
ChatGPT应是辅助创作的工具
目前,一些知名学术期刊出版商已经禁止或限制作者使用ChatGPT。《科学》的主编更明确提到,禁止在提交论文中使用ChatGPT生成的文本。爱尔兰都柏林圣三一学院(Trinity College Dublin)国际金融与商品系教授布莱恩·卢西(Brian Lucey)和都柏林城市大学(Dublin City University)金融系教授迈克尔·道林(Michael Dowling)共同发文表示,出版商和研究人员不能把ChatGPT视为威胁,而应该将其视为研究助手——一种低成本甚至免费的电子助手。为此,他们还做了一项实验,要求ChatGPT生成一份标准的研究报告,包括研究思路、文献综述、数据集和测试/建议,并指定了主题,告诉ChatGPT论文将在金融期刊发表。研究人员将不到200份相关研究的摘要粘贴到ChatGPT窗口中,要求ChatGPT生成论文。拿到论文后,研究人员让ChatGPT在文中添加“金融领域专业知识”,生成第二版论文。研究人员阅读第二版后,再次在ChatGPT窗口中提出一些改进意见,要求ChatGPT生成第三版论文。随后,将第三版论文发给32个匿名审阅人,以判断该论文是否达到发表标准。研究人员都认为这篇论文可以被接受,但是仅论文中的研究思路和数据集部分得分较高,而文献综述和测试/建议部分得分较低。可见,ChatGPT擅长从外部获取的文本中将它们联系起来,或从文本中获取易于识别的部分进行调整。当遇到更复杂的任务时,ChatGPT的弱点就非常明显。
卢西和道林提醒到,ChatGPT只是一种工具,要警惕它生成的似是而非的论文。这也给学术界的研究诚信提出了更高的要求。下一步,需要对ChatGPT进行有效监督。在应用层面,ChatGPT这种初级学术助手,特别适合那些缺乏研究资金资助的人员,如新兴经济体的研究人员、研究生和早期职业研究人员。
特拉斯也谈到,与人类一样,人工智能也具有环境成本,这是需要社会关注的问题。不可否认的是,ChatGPT具备帮助学者确定论文的基本内容和涵盖主题的能力。通过加快书面语写作的具体过程,ChatGPT让文稿生产者在既定的时间内取得了更大的成就。从这个角度看,ChatGPT仅是一款辅助创作的工具。
ChatGPT对高等教育影响有限
谈到ChatGPT对高等教育的影响以及人文学科专业的教育工作者和机构应重点培养学生哪些核心价值观和技能时,特拉斯说,无需担心ChatGPT对高等教育造成的影响。教育者需要设计激发学生创造性思维过程的教学任务,这是ChatGPT无法代替学生完成的。现代教育还包括引导学生接触新工具,批评、审视并驾驭它们。教育者和学生必须学会如何与科技和谐共存,而不是抗拒科技的进步,故步自封。
工作场所自动化将影响人文专业毕业生的就业机会。但是,人文价值观与新兴技术的结合也会创造出新一批职业和岗位。学者和教育者首先需要深入了解技术原理、技术特性、技术解决的核心问题和应用场景,探索技术的边界,才能教会下一代如何理解和使用技术,为进入截然不同的就业环境做出最好的准备。
马奥尼谈道,在过去的20年里,教育工作者不断引导学生正确使用线上数字资源。从现在开始,教育工作者必须找到在日常教学中融合ChatGPT和其他机器人的方法,以便让学生认识到新一代数字技术的难点、局限性和合理使用的场景。
在马奥尼看来,人文学科和人文教育的基础是培育学生的自我认识、道德意识、批判性思维、分析推理、创造性解决问题的能力和连贯的写作能力。不论数字科技如何更新迭代,教育工作者都不应该忽略以上任何一点。
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>