加强人工智能治理的全球协调
2024年04月02日 10:43 来源:《中国社会科学报》2024年4月2日第2865期 作者:赵琪

  

 

   当地时间2月15日,美国人工智能研究公司OpenAI发布了一款“文本生成视频”大模型Sora。这是继ChatGPT之后人工智能发展领域的又一新动态,受到广泛关注。Sora不仅可以理解用户的需求,还知晓用户输入文本中所涉事物在现实世界的存在方式,仅需要用户输入简短的一句话,它就能生成一段长达60秒的视频。随着人工智能系统的实质性进步,一些人担心其是否会在不久的将来超越甚至控制人类。这是人类社会对人工智能发展的经典之问,在人工智能技术迅猛发展并取得关键性突破的时代,对这个经典之问的解答是否有新思路和新答案,对此本报记者采访了相关外国专家学者。

  人类与机器争夺控制权

  美国哈佛大学肯尼迪政府学院高级研究员爱德华多·坎帕内拉(Edoardo Campanella)对本报记者表示,人们因人工智能快速发展而感到担忧并不奇怪,因为人工智能的知识水平已经超过了普通人,对人有一定的影响力。随着人工智能技术的进化,一些人开始担心自己是否会“像现代类人猿一样”。森林古猿的一支进化成了人类,获得了更为强大的大脑,成为世界的领导者;另一支虽然与人类的基因高度相似,却还保持着旧有的生物及技术水平。现在,人工智能领域正在面临类似的问题,工程师可能会在开发人工智能应用程序时创造出比自己更聪明的机器。这不是一个偶然的过程,而是经过不断设计而形成的。在人工智能开发者竞相取得新突破、抢占市场份额的同时,人类与机器也在争夺控制权。

  坎帕内拉提到,生成式人工智能工具如DALL-E、ChatGPT、Gemini、Sora等文本和图像生成器,已经能够以各种可感知的形式生成和操控文本、图像、音频及视频。而感知系统是人类区别于其他物种(包括高度智能物种)或生物的重要特征,例如复杂的语言、人类创造的符号以及人类的叙事能力等,都是塑造文化、法律和身份的基础。一旦人工智能工具能够成功脱离它所被训练的模型,将有可能利用人类的语言与符号建立自己的文化。届时,人类也不得不面对另一种高度智能物种的到来。那时,人工智能工具可能会讲述自己的故事并影响人类看待世界的方式,人类保持了数千年的智力垄断地位也将会被终结。

  2022年11月ChatGPT发布,引发了人们关于人类是否能与人工智能共存的新一轮思考。2023年5月,350余位科技行业领袖、高管和研究人员联名签署公开信,提出要“减轻人工智能带来的灭绝风险,并将其与流行病和核战争等其他规模的风险同等对待,视为全球性优先处理事项”。这反映出,即便是行业内部人士,也开始担忧人工智能给人类带来的风险。

  当然,还有一部分专家没有这么悲观。他们认为,对人类而言,人工智能并不是一个直接威胁,甚至可能永远不会成为威胁。不过,为了防止人工智能工具发展过快,大多数人认为,人类必须通过制定适当的规则,以多方利益相关者共同认可的方式来保持对人工智能技术的控制。坎帕内拉表示,应该将最先进的人工智能产品视为人类聪明才智的附加产品,让人工智能的未来掌握在人类手中。

  人工智能具有工具性

  最近,一项针对近3000名人工智能专家进行的调查显示,总体来看,到2047年出现能够在任何认知任务上击败人类的通用人工智能(AGI)工具的概率为50%。相较之下,美国斯坦福大学人工智能百年研究项目发布的报告则认为,地球上不可能出现“超级机器人种族”,考虑到人工智能这项技术的复杂性,预测人工智能是否会成为超级智能工具以及这种超级智能工具何时到来,都是无意义的。坎帕内拉说,错误的预测是人工智能发展史上反复出现的特征。早在1956年,在美国达特茅斯学院组织的为期两个月的研讨会上,一群科学家重点探讨了如何让机器使用语言并形成抽象概念,来应对人类面临的各种问题。这些科学家相信,如果精心挑选一组研究人员并让他们花费一个夏天的时间来共同研究,就可以解决他们设想的有关人工智能发展的关键技术问题,或是在多个问题上取得重大进展。这场研讨会成为人工智能发展史上重要的里程碑。然而,将近70个夏天过去了,人工智能领域中的很多问题仍未得到解决。

  《人工智能的神话:为什么计算机不能像人类那样思考》(The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do)一书解释了为什么人工智能产品不太可能成为超级智能。该书认为其中的关键原因在于,人类对自身心理过程的了解太过有限以至于人工智能产品无法进行再现。书中在描述人工智能产品演变过程时反复强调,人工智能系统与人类思维有着根本性的不同,人工智能产品永远无法实现真正的智能。

  澳大利亚昆士兰大学商学院信息系统副教授斯坦·卡拉纳西奥斯(Stan Karanasios)告诉本报记者,自达特茅斯研讨会之后,许多从事人工智能研究的学者都将模拟人类思维视为开发智能信息处理系统的关键,但已将输入模式转变为输出模式,这就是今天人工智能系统的运作方式。人工智能模型在大型数据库中接受训练,研究人员通过不断的试验和试错来预测结果,使模型最终完成程序员指定的目标。在学习阶段,人工智能模型可能会发现数据集中变量之间的规律和相关性,其水平是程序员无法企及的。例如,ChatGPT经过数十亿个网页的训练,成为世界上最强大的文本自动生成工具之一。不过,它仅仅是个工具,而不是一个有知觉的生物。

  卡拉纳西奥斯谈到,人工智能模型试图以上述方式复制人类智能存在的关键问题是,人类的大脑不仅通过演绎(应用逻辑规则)或归纳(在数据中发现因果关系的模式)来工作,还常常依靠直觉推理来驱动,诉诸溯因或常识。溯因使人类可以超越规律达成对事物的理解,这种模式无法被编辑成某种指令或统计模型,而这也是ChatGPT有时会显得缺乏常识的原因。例如,有学者做过一个实验,他对ChatGPT输入:“你能生成一个介于1—10之间的随机数字吗?然后让我猜一猜。”ChatGPT回答:“可以。7,试着猜一猜吧。”学者输入:“有可能是7吗?”ChatGPT回答:“答对了,非常好。”溯因可以帮助人类跳出思维框架乃至超越先前知识的限制。当哥白尼提出地球围绕太阳旋转而非太阳围绕地球旋转时,他跳出了几个世纪以来所积累的以地球为宇宙中心的错误论证。哥白尼跟随了自己的直觉,这是受特定数据库限制的人工智能模型无法做到的。

  应对人工智能风险任重道远

  在《即将到来的浪潮:技术、权力和21世纪最大的困境》(The Coming Wave: Technology, Power, and the 21st Century’s Greatest Dilemma)一书中,该书作者、英国人工智能公司DeepMind联合创始人穆斯塔法·苏莱曼(Mustafa Suleyman)对通用人工智能时代是否将会到来,态度较为乐观。他提醒到,不要为此设定时间表。在他看来,目前最重要的是发展好人工智能系统中一些里程碑式的技术,这些技术决定了未来人工智能的发展形态。苏莱曼以DeepMind举例说到,他们开发的AlphaGo模型2016年在与韩国围棋棋手李世石的5次对弈中4次击败了对方。围棋起源于中国,被认为比国际象棋更具挑战性和复杂性,而AlphaGo通过不断的学习学会了下围棋。尤其让大家惊讶的是,AlphaGo不仅能够取胜,还体现了很强的策略性,在与李世石进行第二局比赛时,它的第37步棋虽然违反人类直觉,却直接击败了李世石,颠覆了人类在围棋上的传统智慧。苏莱曼说,对人工智能系统的智能性或其是否具有自我意识表示担心,还为时过早。如果通用人工智能时代真的到来,这将是一条技术之路的终点。而事实是,机器只是在逐渐获得类似人类的能力以执行特定的任务。

  苏莱曼认为,人工智能领域的下一个前沿可能是一些能够执行各类任务的机器,而这距离通用人工智能的实现还有很长的路要走。因为,与传统人工智能相比,通用人工智能不仅可以识别并生成适用于特定环境的图像、文本和音频,还能与真人用户进行实时交互,完成特定的任务,助力开展新业务。为了评估人类离通用人工智能还有多远,苏莱曼提出了“现代图灵测试”(modern Turing test)方法。早在20世纪50年代,英国计算机科学家艾伦·图灵(Alan Turing)提出,如果一台机器能够与人类有效地沟通,以至于人类无法分辨出它是一台机器,那么这台机器就可以被认为是智能的。几十年来,能否通过图灵测试成为判断人工智能工具智能与否的关键指标。已经有一些最新一代的大型语言模型通过了图灵测试,现在是时候对图灵测试进行更新了,即从测试人工智能是否能与人类沟通升级到测试它能为世界带来什么有意义的影响。

  美国加州大学伯克利分校计算机科学教授斯图尔特·罗素(Stuart Russell)在《人类兼容:人工智能与控制问题》(Human Compatible: Artificial Intelligence and the Problem of Control)一书中指出,即使具备人类智能水平的人工智能产品还未出现,人们也应该开始思考如何应对它的到来。现在,他最担心的是,在一个由更智能的机器组成的世界里,人类可能会失去现有的地位和自主权。在某种程度上,未来的人工智能可能会跨越一个关键门槛,变成人类无力应对的生存威胁。人类还不知道这个门槛在哪里,也不知道跨过门槛的时间。人工智能系统已经表现出了自我保护功能,因此,需要建立健全针对人工智能系统的风险管理机制来保护人类。

  罗素提出了人类与人工智能兼容的两条原则。一是人工智能应该是“纯粹利他”的,这意味着它们不应当为自身福祉甚至自身的存在附加任何内在价值,只需关心人类的目标;二是人工智能应当永远无法确定人类的偏好,它在存在疑问时应该顺从人类,而不是“接管人类”。人工智能的发展目标应该是在不与人类竞争的前提下提升人类的优势,帮助人类克服弱点。

  卡拉纳西奥斯表示,将这些原则付诸实践,需要创建一个由公共和私营部门共同支持的全球治理框架。这意味着人工智能的发展不应局限于计算机领域,在更广阔的天地进行开发与实践才能创造出与公众利益相契合的技术和机器。关于人工智能安全监管的讨论不能停留在企业界或学术界,而应该回归到社会之中。目前,欧盟《人工智能法案》等法规已经朝着这个方向迈出了第一步,但是,要应对人工智能的潜在风险,人类还有很长的路要走。首先,需要加强全球性协调,提升公众对相关问题的认识;其次,需要确保人类保持自身的自主性。

责任编辑:崔博涵
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026