关于人工智能的四个迷思
2024年02月19日 09:58 来源:《中国社会科学报》2024年2月19日第2834期 作者:吴菲

  2023年,生成式人工智能(AIGC)掀起了全球人工智能技术发展的热潮。以“开放智能研究中心”(OpenAI)的ChatGPT为代表的大模型产品展示了AI跨场景、多用途、智能化的通用性任务处理能力。依托海量数据、超强算法、巨大算力的结合,大模型已在分析、决策、理解、创造等任务中达到可与人类相媲美的表现。全球科技公司在此热潮带动下纷纷推出各自的人工智能大模型,中国企业也开启了“百模大战”。《自然》杂志在近日公布的2023年度十大科学人物中,首次将非人类的ChatGPT纳入其中。在这些进步热潮之外,对于人工智能的质疑和警示之声从未停止。“深度学习之父”杰弗里·辛顿(Geoffrey Hinton)表现出对于AI可能产生的一系列风险的忧虑,认为AIGC生产的大量虚假信息充斥网络,AI也会扰乱就业市场,甚至有可能会成为具有自主能力的杀手机器人。《人类简史》作者尤瓦尔·赫拉利也指出,由于人工智能正在以超过人类平均水平的能力掌握语言,因此也正在掌握入侵人类文明系统的钥匙,甚至可能会导致人类统治时代的终结。

  广义而言,AI指的是由计算机和算法创造的一种社会技术系统,目的在于模仿、增强或替代人类。正如上述热潮与质疑并存的情形,AI对于社会的影响仍未有定论。尽管包括科技公司和设计者在内的AI实践者们提出了“AI向善”的口号,但对于何为“社会良善”仍然众说纷纭。从社会科学的视角出发贡献于这场讨论的一条路径,就是促进AI产品开发的设计和治理原则从“以个人为中心”转向“以社会为中心”。而在此之前,厘清人们对于AI的四个迷思是有益的尝试。

  第一个迷思是AI看似中立,实则有偏。AI技术越来越多地被用于决策,根据算法得出的结果可能会决定谁能获得工作,谁能得到社会福利救助,谁更可能被逮捕。使用AI来进行决策的一个假设是机器“铁面无私”,总比人公平。然而,社会学家们早已发现了AI设计和应用中的“偏见”。人工智能的“偏见”来自数据和算法。机器学习的输出结果强烈依赖输入的数据,这些数据既包括来自各种社会机构的既有数据,也包括实时生成的日常数据。无论哪一类,数据本身都是深嵌社会不平等的肌理的,而当这些数据被用来再次训练大模型时,就会强化既有的不平等。已有研究发现,在劳动力市场性别不平等背景下产生的简历池,被机器学习后,输出的申请者打分会显著不利于女性。而基于既有逮捕史的数据训练出的警务大模型,也更倾向于将有色人种定义为犯罪高危人群。即使数据本身无偏,算法的设计选择、界面信息呈现等也会加剧本身的偏见。目前,对于AI公平性的担忧已催生了各类旨在解决此类问题的举措,包括AI伦理联盟、开源的AI公平工具包、政府的法规框架等。这些举措更有效的实施,无疑需要更多与社会科学中对于社会结构和不平等产生机制的既有研究成果相结合,以从目前浅薄的人群分类思路跳脱,形成更为有效的机制主导的干预框架。

  第二个迷思是AI看似准确,实则有误。生成式AI 被广泛应用于生成文字、图像、声音和视频等内容。而由AI参与甚至主导生成的内容正越来越多地出现在媒体、商业甚至学术平台上。来自技术本身和算力成本等方面的限制,使得AI生成的内容并不如看上去的那样准确,错谬信息时常以很可信的形式出现,对于缺乏辨别力的受众产生迷惑,这种现象被称为AI幻觉(AI hallucination)。相关研究团队发现市面上主要的生成式AI平台的幻觉率在3%—27%之间。如果AI 生成内容只作为私人用途,信息错谬的影响也许不大。但一旦这些内容被用在公共领域如法庭断案、商业推广、疾病诊断时,就会产生严重的后果。例如,有选民因受AI提供的信息影响,相信候选人有过受贿案底,就放弃对其支持;AI 生成的伪造案例库误导了法官判案;更有AI编造的虚假医学研究,影响了治疗方案的有效性等。意识到AI这些“有信心的胡说八道”可能带来的影响后,目前开发者已形成一些应对方案,比如使用更准确的提示词、融入人类监督机制、采取检索增强生成法、标识AI生成内容等。然而,在这些旨在加强AI 准确性的技术变革之外,我们还需要处理AI信息偏误带来的社会影响,提高受众甄别信息、验证信息的能力,建立相关法规,明晰人机合作生成信息带来社会后果的责任主体。

  第三个迷思是AI 看似全能,实则有限。从决策式AI到生成式AI,机器不仅可以帮助人类实现自动驾驶、人脸识别和智能决策等专业领域的任务,还进化到可以胜任自主创作全新内容的阶段。自动化进程替代了重复性工作,而在智能化浪潮下人们则担忧无所不能的AI会全面取代人类劳动力。相关报告发现大语言模型工具的使用会影响到美国劳动力市场八成的就业者,特别是高薪群体。在AI与人类劳动力关系的讨论中,一个核心的争论是替代(replacement)还是增能(augmentation)。一方面,AI的确擅长完成可以被转化为清晰参数的任务,如自然语言翻译、具有明确风格的文本撰写、数据分析和总结、程式化的用户服务等;但另一方面,AI 的局限也十分明显,在一些需要大量隐性知识(tacit knowledge)、复杂推理、情绪感知、社会交往的高度专业化任务中能力仍然捉襟见肘。已有研究显示,在司法领域,AI的风险评估工具的准确性并不比人类好多少。AI在替代一些工作的同时,会产生另一些新的工作,如提示词工程师、机器人应用技师、AI工程技师、AI训练师等。将这些新兴职业所需的技能纳入职业教育框架设计中将是十分有益的措施。因此,我们不需为“完全被AI 替代”而担忧,反而应该积极规划人类与AI共同协作,明晰AI的“能”与“不能”,引导其为人类劳动力增能,以促进生产效率的整体提升。

  第四个迷思是AI看似普惠,实则不平等。有人称AI是一项通用技术创新,其对于人类生产力的促进甚至可以与蒸汽机、电力和计算机相媲美。我们在为AI巨大的生产力潜能欢欣鼓舞的同时,也需看到AI延续甚至加深已有不平等结构的可能性。这些不平等体现在地区之间、公司之间和不同群体的劳动力之间。AI的发展和应用需要巨大的资本与技术投入,因而往往集中在部分国家和地区,呈现出新技术在空间上的不平等。此外,无论是作为大模型预测任务的基本原料——数据的获取,算法的开发,还是算力的供给,都使得那些拥有数字基础平台优势的公司更可能深入参与AI的研发与应用。而这将导致各公司在市场份额、经济和政治影响力等方面产生极化的情况。AI技术应用对于劳动力市场的影响并非均质化,针对低技能岗位劳动者的数字化控制,与要求特别技术的AI相关职位的兴起往往同步发生,扩大了传统劳动力市场中既有的不平等。上述不平等甚至存在于AI技术产生以前,是大模型之外的社会性基准事实。而社会科学既有研究则有助于人们理解这些不平等是如何形成的,从而促成更趋于公平的AI应用。

  AI技术于20世纪50年代被提出,如今快速广泛地被应用在社会生活的诸多领域,逐步而深入地参与社会生活。然而,AI对于社会的影响仍是一个有待探索的领域。本文梳理了有关AI的四个迷思,呼唤社会科学对于人工智能更深入的研究。在智能化时代,社会科学家应该积极投入这场有关新技术与社会的论辩,结合长久以来对于社会不平等和社会结构变迁的研究,推动人工智能从“以人为中心”向“以社会为中心”的设计和服务原则的转型。

  (作者系复旦大学社会学系副教授)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026