促进人工智能在法律领域安全发展
2023年08月16日 14:24 来源:《中国社会科学报》2023年8月16日第2714期 作者:翁榕

  近年来,人工智能技术在很多国家的法律领域得到不同范围、不同深度的使用和发展,引发了各国法学界的热烈讨论,成为法学领域的热点议题和法学期刊的热点选题。人工智能在法律领域的适用必须接受法律本身的规范和治理。围绕人工智能,特别是以ChatGPT为代表的通用人工智能给法律领域带来的风险和法律对这些风险的回应,以及人工智能时代法律本身、法律职业、法学教育的发展等问题,本报记者采访了马克斯·普朗克创新与竞争研究所高级研究员达莉亚·金(Daria Kim),美国商业杂志《福布斯》专栏作家、人工智能专家兰斯·艾略特(Lance Eliot),明尼苏达大学法学教授蔡晓峯(Jonathan H. Choi)。

  法律具有滞后性

  达莉亚·金在采访中表示,在涉及可能对诸多领域产生变革性影响的新兴技术时,政策和立法决策有着不可避免的滞后性。GPT-4在ChatGPT 3.5发布后仅几个月便面世,但是,这种仍处于早期版本的技术以及一般意义上的大型语言模型(LLMs)可能会对社会互动、创意写作、语言多样性等造成什么样的影响,人们了解得还不够多。有些人认为,在某种程度上,突破性技术使得现有的监管框架变得过时或不再适用。但这种结论是基于“目的适用性”评估得出的,即将现有监管与法律框架对标政策目标所得出的结论。原则上,技术监管是为了最大限度地降低技术风险,同时为社会带来最大的技术效益。为此,政策制定者需要充分了解这些风险和效益分别是什么。在新兴技术领域,对新技术与现有法律法规的适用性评估所得出的结果具有或然性。没有哪项技术是绝对安全的,就算进行了大量试验测试的技术也一样,比如新推出的药品。因此,归根结底还是要花时间进行包容性讨论,在技术风险和技术效益之间达到某种平衡。

  她表示,为了找到这样一种平衡,需要花费一定的时间并进行广泛的讨论。同时,政策制定者和立法者需要在社会利益和风险、生成式人工智能应用所带来的监管挑战、各国的政策目标以及合适的政策措施等方面达成共识。这是极具挑战性的,欧盟人工智能法案的立法过程就是一个很好的例子,它表明,在如何贯彻安全可信赖人工智能理念、最佳水平的安全监管应当是什么,以及如何处理人工智能的通用技术特性等问题上达成共识,需要花费漫长的时间。但与此同时,生成式人工智能领域的发展却是跃进式的,新技术不会等待社会达成共识。

  达莉亚·金说,不久前,曾有1000多名相关专家签署联名信强调了人工智能系统的潜在危险,包括其对社会、经济、政治的潜在影响和破坏,呼吁立即停止发展人工智能。像大型语言模型这样的应用程序具有广泛影响,其使用将影响人类生活中涉及语言的所有领域。鉴于人工智能应用广泛存在,试图禁止使用人工智能可能会像用网捕捉风一般徒劳无功。更可能的情况是,包括政策制定者和监管者在内的社会各界需要摸着石头过河,边使用人工智能边解决问题。

  关于立法者是否应制定或修改法律以应对新挑战的问题,还需要在法律领域内进行全面而有针对性的评估。由于像ChatGPT这样的机器学习应用具有“通用技术”的特点,无法就可能需要加以监管的使用行为进行穷尽列举。因此,很难为其设计监管框架。例如,生成式人工智能在知识产权法领域引发了一系列问题,包括以训练人工智能系统为目的对受知识产权保护的内容的可访问性,以及机器学习模型和人工智能输出内容的可保护性问题。在人工智能生成文本的使用方面,其合法性可能要受到著作权法之外的其他法律法规的约束,如透明度、错误信息和诽谤方面的法律法规的约束。无论涉及哪个领域,都需要制定与人工智能应用透明度相关的特定规则。这些规则应能帮助人们了解人工智能在特定情况下会发挥什么作用,以及相应的法律后果。总的来说,鉴于这一领域技术发展的动态特性、政策和立法的发展,以及对人工智能形成更广泛的社会理解,将会是一个持续性的过程。

  人工智能进入知识产权领域

  达莉亚·金表示,在立法者改革专利法之前,有必要甄别那些暗示计算系统具有“独立”代理能力的假设。首先,这种假设倾向于将人工智能系统视为拥有“独立自主”的能力,并以“拟人化”的方式描述人工智能。特别是,认为人工智能系统具有做决策、确定实现目标的手段,以及自主完成任务和目标的能力。这种做法可能会令人困惑,尤其是对于那些对人工智能理解有限的人来说。如果我们假设人工智能系统能够“自主”,就意味着这些以人工智能为基础的系统具有“推理”“决策”和“行为”能力,而人类对于这种“决策”过程的控制力有限或毫无控制力。这些假设给各种法律和监管框架带来挑战,包括侵权责任、消费者保护、透明度监管等领域。在专利法领域,假设人工智能“自主”带来了许多问题。人们可能会认为发明的行为被简单地移交给了人工智能系统,是人工智能系统在“自主”发明。因此,在“人工智能驱动”发明的情况下,将专利权归属于人类用户可能不再能被证成。这个问题成为了全球范围内诉讼案例的核心。目前,法院的主流立场是,只有人类才能被指定为发明人。然而,我们仍需澄清人工智能系统究竟是否能够“自主”发明。

  她进一步解释道,在关于人工智能的日常话语和技术文献中,“自主”(autonomy)和“自动化”(automation)这两个术语经常被混用。然而,它们在概念上和技术上存在显著差异。虽然“自主”尚不存在人们广泛接受的定义,但这个词通常与自我管理和自我决定联系在一起,也涉及行使自由意志的能力(表现为能够自己做决策和做出某个行为)。人工智能系统并不能自主,它无法“决定”违背人类的设定,不能创造先前不存在于数据或者无法从数据中推衍出的信息。“自动化”意味着在执行过程中无需人类直接干预即可完成任务。然而,在实现自动化之前,还需要人类来配置和设置计算过程。

  人工智能系统可以进行自动化计算,即在算法实施过程中无需人类直接参与,人工智能就可以自动执行数据和信息处理等操作。尽管随机化在机器学习技术中得到了广泛应用,但仍然具有确定性,即在输入内容相同和条件相同的情况下,机器学习系统会输出相同的内容。系统或计算模型的复杂性和随机化的使用可能导致内容输出的变化和出人意料的效果。此外,通过传感器感知的与现实世界的互动可能导致人工智能系统的设计者或用户失去对人工智能系统的控制,但控制的缺失应归因于环境的不可预测性,而非计算机具有的“自主决策”能力。

  达莉亚·金说,主张改革专利法的评论者往往是基于人工智能系统中存在“独立”代理人的假设。但她认为人工智能技术更像是计算工具和解决问题的工具,虽然专利制度可能需要改革,但要想知道该如何改变,我们得进一步了解人工智能技术对创新过程的影响,以及专利法的目标和功能。这样,我们才能更好地确定推动创新的最佳方案。

  厘清何为“人工智能驱动”的发明

  达莉亚·金提出,有关发明权的归属问题,应当先明确“人工智能驱动”的发明到底是什么。尽管人工智能应用程序很强大,但它目前只是一种可被用于发明创造的工具。在欧洲专利法的语境下,一项发明可被理解为解决技术问题的技术方案。机器学习的基础是数学优化,这也许可以解释为什么它可广泛用于解决技术和工程问题,比如药物开发中应用机器学习来识别和优化分子的结构活性关系。只要人工智能是作为工具被使用的,就应当适用发明权和创造性(即非显而易见性)相关规则。在大多数法律制度中,发明权的归属明确要求或隐含推定某项发明或其贡献的背后具有创造性或智能构思。为了满足这一要求,在发明构思阶段,创造者的参与方式不应当只是提出抽象想法,而让另一端简单地执行他人提出的想法。创造过程应该在智能和创造性的层面上进行,而不是在金融、物质或仅仅是执行层面上开展。

  她表示,发明的概念化涉及抽象思维。尽管机器学习系统或计算模型能够模仿人类的认知过程,但它们的性能仍然依赖于人类在设计和应用这些建模技术时的思考和决策行为。应用计算模型来解决技术和工程问题需要人类来设置计算过程。为此,人要能准确把握问题所在,并深入了解相关的工作设想、底层数学结构、潜在的局限和陷阱等。因此,她并不认为技术已经达到足以让人类可以简单“外包”发明任务的程度。在使用人工智能进行发明创造的情况下,一种可能比较合适的做法是将“如何运用人工智能技术解决手头的技术问题”的决策本身作为衡量发明构思中“智能参与”行为的一大指标。谁将是具体决策者则视个案情况而定。

  达莉亚·金补充道,毫无疑问,某些技术发明比其他发明更容易实现,且发明者可能会使用不同工具来解决问题或进行研究,如基因组学或数学优化技术。这种情况下,发明性的要求,即发明的非显而易见性变得非常关键。原则上,只有那些比相关领域“平均”水平专业人士解决某种技术问题能力更强的发明才能被视为“非显而易见”,从而取得专利权。一些评论者认为,人类在这种发明过程中扮演的角色太微不足道。也有人认为,评估发明性现在需要参照“平均”水平的人工智能系统而非熟练技术人员。但她认为,目前人工智能算法和系统的作用仍然是工具,因此,熟练技术人员的概念仍然可作为判断发明“显著性”的相关指标。她也不认为人工智能系统能使任何问题的解决方案变得显而易见,因为将人工智能应用于解决复杂问题可能需要人工智能系统的设计者和用户做出复杂的决策。在运用人工智能驱动创新的情况下,尽管在确定发明者和发明的非显而易见性方面的实体性规则仍然有效,但其实际应用可能面临挑战,因此有必要进行更详尽的分析。

  力争采用均衡恰当的监管方式

  艾略特在接受记者采访时表示,我们必须关注生成式人工智能的出现和使用所引发的保密风险和隐私问题。生成式人工智能应用越普及,私人数据和机密电子材料遭受侵犯的风险就越大。侵犯隐私的情况通常有以下两种。第一种是,生成式人工智能程序的数字训练内容来自互联网上发布的数字内容,网站和其他在线发布内容会被秘密浏览与抓取。在此过程中,网站的所有者并不知悉人工智能的浏览行为,也没有人事先征得他们的明确许可。随后,生成式人工智能程序会利用浏览过的内容生成复杂的模式匹配编码结构。人工智能收集到的私人或机密数据可能会永久存在于这些结构中,在生成式人工智能用户的请求下被调取利用。第二种是,在使用生成式人工智能应用程序时,用户可能会输入私人或机密数据。人们通常以为除了用户本人之外,没有其他人可以访问他们输入的数据。实际上,大多数生成式人工智能程序并未提供这样的保证。相反,制作或部署人工智能的公司保留使用用户输入内容的权利。用户应仔细审查与他们希望使用的生成式人工智能应用相关的许可条件。因此,只有在明确知晓系统所声明的保护措施或所缺乏的保护措施的情况下,用户才应该考虑使用生成式人工智能程序。

  艾略特认为,律师在使用包括ChatGPT在内的生成式人工智能时具有双重职责。一方面,律师应该就如何正确使用生成式人工智能应用程序向客户提供建议,例如,如何进行数据保密和隐私保护。另一方面,律师必须遵守自己的建议,同样要注意在使用ChatGPT等应用程序时不能涉及任何与客户有关的隐私或保密信息。为了履行这些职责,律师必须迅速了解生成式人工智能。如果一名律师对生成式人工智能的运作方式不了解,他可能会被认为在法律尽职调查方面做得不够,而他服务的客户将无法获得充分的法律保障。更糟糕的是,律师在使用生成式人工智能时可能会因为不知道自己在做什么而无意中暴露客户的私人数据或机密数据。

  此外,他观察到,生成式人工智能还伴随着其他法律问题和挑战。例如,ChatGPT等人工智能应用可能会输出不当言论,包含各种偏见言论乃至仇恨言论。如果某家公司选择使用生成式人工智能来服务消费者,那么它输出的内容就有可能包含某些具有法律损害性的表述。受到冒犯的消费者看到了可能会反过来抨击这家公司,甚至对该公司提起诉讼。为了遏制生成式人工智能的负面影响,各国立法者都在努力掌握最恰当的管控力度。约束性较强的法律可能会限制人工智能的发展,削弱人工智能带来的预期效益,而采用较为宽松的监管方式或索性不设立相关法律则可能会纵容甚至变相鼓励人工智能扰乱社会。每个国家的立法者都需要思考他们想达到何种平衡。

  法律职业和法学教育应及时自我调整

  艾略特认为,人工智能必将渗透到法律实践的各个方面。人们已经在使用人工智能筛选和分析案件材料。人工智能通常是律师事务所使用的合同生命周期管理(CLM)软件包的重要组成部分,可以被用于起草、审查合同以及其他与合同相关的法律事务等。法学院的学生需要了解各类人工智能应用,并在初涉法律行业时便开始使用最新的人工智能应用。法学院应确保学生在毕业后进入职场时拥有足够的使用人工智能的经验,从而不至于在职场中处于劣势。法学院会意识到有必要将人工智能纳入法律课程中,同时,未来的学生在择校时也会倾向于选择设置相关课程的院校。

  蔡晓峯对记者表示,虽然有朝一日人工智能模型最终可能会替代法律从业者,但距离这一天的到来还有很长时间。这是因为人工智能目前为止还不够可靠,而法律实务涉及的问题往往与人们的切身利益攸关,因此较为重要。短期内最有可能发生的还是人类与人工智能合作。

  在蔡晓峯看来,机器将逐渐覆盖基础性的法律工作,但律师不应该想着与机器竞争,而是应该把精力放在机器完成不了的工作任务上,比如提升判断力与发现法律问题的能力,这两个技能是人工智能目前尚未掌握的。聊天机器人带来了很多法律问题。例如,从知识产权的角度看,使用受版权保护的材料来训练机器人是否侵犯著作权?让人工智能法律助理在未经授权的情况下从事法律实务工作是否存在风险?一旦人工智能模型犯下代价高昂的错误,谁应承担法律责任?这些问题都没有确切的答案。ChatGPT是一个多用途工具,目前并没有专门为法律领域做出优化调整,但已经有不少公司开始着手这项工作。也许在几年甚至几个月内,我们就能看到法律实务专用的新的工具。有些公司还在尝试将人工智能模型嵌入现存的工具中。

  蔡晓峯认为,随着ChatGPT的到来,法学院的学生应该产生危机感,因为人工智能可以显著提升律师的工作效率,而这也意味着不及时调整适应的从业者将被远远甩在同行后面。但我们也应该乐观看待科技进步,因为人工智能模型能够接手律师最不感兴趣的工作,比如检查文件、复制草稿等,这使得法律从业者能够更好地投入到更复杂、价值感更高的工作当中。

责任编辑:崔博涵
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026