2022年12月初,美国人工智能实验室(OpenAI)发布了一款名为ChatGPT的自然语言处理工具。ChatGPT一经问世就迅速引发关注,它能“接住”网友提出的一系列“刁钻问题”,比如可以用英文写检讨、生成特定领域的论文等,是目前为止较为接近人类水平的对话机器人。作为以AI语言自动生成为特色的应用,其一定程度上代表了未来“人类意图+机器组合内容”新型信息传播形态的崛起,其引发的AIGC(AI Generated Content,人工智能内容生产)社会风险值得深入思考,并提前布局风险防控措施。
AIGC的技术特色
ChatGPT通过类似微信对话框的形式,对用户提出的问题进行解答,是AIGC领域较为“像人”的对话机器人,其技术特色代表了AIGC的基本技术特点与趋势。在过去几年,OpenAI的研究取得了很多成就,其中包括自然语言处理模型GPT-3、视觉识别模型DALL-E和强化学习模型AlphaGo,ChatGPT依靠的就是自然语言处理模型GPT-3。
GPT-3模型是一个非常强大的自然语言生成模型,它可以用于生成文本、回答问题、翻译文本、摘要文本、文本分类等任务,基于Transformer模型架构,通过预训练大量文本数据,再微调学习特定任务,以此实现高效的自然语言处理能力。目前看来,GPT-3代表了AIGC内容生成领域的发展方向,其技术特色表现在四个方面。一是超大规模,GPT-3拥有数百亿个参数,是目前为止最大的自然语言生成模型,这构成了内容精准生成的基础。二是自动化,模型可以依据输入文本的内容自动调整生成文本的语言风格和内容,通过添加个性化因素改进普通AIGC“千篇一律”的缺点。三是通用性,GPT-3可以用于多种自然语言处理任务,并且在这些任务中表现出色。四是可扩展性,可以通过微调来学习新的任务,并且随着模型的扩展而保持较高的性能,通过添加新信息,可以对语言模型进行训练,从而实现用户自身的使用目的。
这些技术特性综合起来,相比市面上其他聊天机器人,ChatGPT的功能更加多样化,例如它可以按照特定的要求书写赞美诗、写讲话稿、新闻稿甚至编写物理仿真程序。此外,该聊天机器人的回答更为严谨,能够主动承认自己的不足,面对许多高难度问题,会回答“缺乏资料”或者“我只是一个语言模型”,之后再尝试进行解答。可以说,通过有目的的设置条件,AIGC可以大量、快速生产内容,特别是通过细化内容生成的条件限制,能够产出与人类语言高度相似的内容。
AIGC的社会传播风险
AIGC的社会传播风险问题主要指其可能被用来进行不道德,甚至违法的信息传播活动,其核心是能够生成“看上去很像那么回事”,但实质上却是虚假信息的内容。具体来看,以ChatGPT为代表的AIGC应用存在以下社会传播风险。
生成假新闻。ChatGPT可以根据给定的一个或多个关键词,生成看上去真实,实际上却完全是编造的新闻。其能够实现从新闻标题到内容甚至评论的全部自动化产出。例如,当给定关键词“美国领导人”和“外交危机”,再加上限制在500字以内的条件,ChatGPT就会按照要求的字数与关键词生成一篇新闻文章,报道某国领导人发生了外交危机。
进行信息欺诈。由于ChatGPT能够产出高质量的人类口语文本,其可被用来进行网络欺骗,比如通过写出看上去合法的电子邮件内容来实施财产诈骗,通过制造假的政策文件、政府公文来进行信息欺诈。其核心是按照使用者要求自动模仿有固定模式的文本内容。例如,可以生成一份非常“像样”的政府招商文件。
模仿特定话语风格进行内容生成。ChatGPT在大量获取网络文本的同时,也可以进行人为语料输入,对人工智能进行后期培训。如网络名人、大V等有较大影响力的意见领袖,其语言风格往往很有特色,ChatGPT能够模仿特定的语言风格进行内容生产,其话语结构、用词特点等与真人高度相似,容易对受众产生误导。
整体来看,AIGC应用的智慧化程度高,拉低了人工智能生产的技术使用门槛。其能够一次性处理包括话语风格、字数、文本类型等多种语言生成要求,可以说生成条件设置得越具体,其生产的内容越接近于真实。针对虚假、不实信息,类似的AIGC技术将直接降低批量制作虚假信息的技术要求,加快虚假内容的生产速度,对未来的信息内容治理提出了进一步挑战。
AIGC社会传播风险的应对策略
近年来,随着自然语言处理(NLP)技术的飞速发展,ChatGPT等高级语言模型在语言理解和生成方面取得了显著的进展。然而,这些技术也带来了虚假信息的风险。应从以下三个方面防范AIGC成为虚假信息发源地。
落实内容负责制:谁生成,谁生产,谁负责。在网络空间内容治理方面,明晰的责任制度是建设清朗网络空间的基础。针对ChatGPT等新一代人工智能生产应用,应该延续我国现有的内容责任制度,将《互联网信息服务管理办法》《互联网跟帖评论服务管理规定》等延续至人工智能生产领域,落实谁生成,谁生产,谁负责,多方共同承担治理责任。模型开发者应该对模型在生成虚假信息方面的风险负责。平台提供商和内容发布者应该对使用ChatGPT生成的信息进行审核,以防止虚假信息的传播。政府应该制定有关网络信息传播的监管法规,为确保信息真实性和准确性建立机制,对虚假信息提供者进行惩罚。
以AI对AI:建立人工智能生成内容鉴别处置机制。面对人工智能内容生成,只能采用AI对AI的策略进行反制。应针对不同语言模型的技术特点提前进行布局,不断迭代人工智能内容监测系统。目前看来,ChatGPT等AIGC应用有一些较为明显的局限性,包括但不限于:语法和语义错误,在生成文本时会出现语法错误和语义不一致的情况。泛化能力有限,在处理新的任务时泛化能力较弱,它可能无法准确地回答新的问题或处理新的文本数据。缺乏逻辑推理能力,无法通过推理来得出结论,在处理复杂的问题时可能会出错。依赖输入文本,对输入文本的内容具有非常强的依赖性。这些问题在很大程度上代表了人工智能内容生产的通用性缺陷,可从网络内容重复性、逻辑性、语法语义等方面着重开发监测工具,通过分析语言特征和上下文信息来识别虚假信息,使用预训练数据进行数据驱动的方法来检测生成的信息,构建人工智能生成内容鉴别处置机制。
加大力度培养自主可控的自然语言生成式模型。目前市面上的人工智能语言模型并不少见,如谷歌BERT模型、阿里巴巴的PLUG模型、清华大学计算机系自然语言处理与社会人文计算实验室的中文诗歌生成系统“九歌”等,能够采用拟人化方式和用户自由对话的也有Character.AI(角色AI)等。但相比上述能够生成语言的模型,ChatGPT具有了更为强大的功能,其背后是未来人工智能生产领域“强者更强”的发展逻辑。ChatGPT主要通过使用人类反馈强化学习(RLHF)针对对话进行优化,这是一种使用人类演示来指导模型实现所需行为的方法,其参数量从最开始的1.17亿增加到1750亿,预训练数据量从5GB增加到45TB,其中GPT-3训练一次的费用约为460万美元,总训练成本达1200万美元。流行的人工智能语言模型在人们的使用中不断获得信息反馈,持续进化,最终让竞争对手“望而却步”。这提示我们应该加强自主可控的自然语言生成式模型的研发投入与推广应用,最终通过市场手段促进中国人工智能发展。
(作者单位:中国社会科学院新闻与传播研究所)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>