丁利:像“法律之神”那样思考——人工智能与法
2018年08月24日 08:34 来源:《中国社会科学报》2018年8月24日第1522期 作者:丁利

  很多人曾经坚信,像法律这样比较“软”的社会科学领域,永远不会是“硬”的逻辑与数理方法可以运用的。但现在,人工智能,正如博弈论、心理学、认知科学等理论、方法和任何科技工具一样,在法学和法律中已经不是能不能进入,而是进入后如何充分发展的问题。

  现实中的法律和法律人都是凡夫俗子及有缺陷的智慧创造物。但正如物理学家要思考上帝会如何创造这个世界一样,我们也要思索“法律之神”会如何立法、运作和变迁法律。而人工智能可以帮助我们提升实现法律之经世致用目的的能力——像“法律之神”那样思考。

  法律中的决策问题

  人工智能或者一台安装了高级软件的电脑或计算机能做什么?我们不妨先看看同样假设智能而又理性的决策者如何行动的经典博弈论怎么说。当然,我们还知道,博弈论的另外分支譬如进化和学习理论,只需要假设行动者有基本的感知、评判和调整能力即可。演绎与演化两种观念是互补的,基于演绎观念的高度智能与理性的行为模式,也许可以看作是较为简单和目光短浅的行为模式长期演化的产物,这种思想即便在人工智能中也是如此。而博弈论与人工智能之间有着天然密切的内在联系,逻辑和计算机理论领域的权威如Yoseph Y. Halpern和Johan van Benthem等人在博弈论领域也都作出了杰出的贡献,我手头就有一本《面向计算机科学家的博弈论讲义》。

  如果我们换用博弈论的术语,围绕着立法、执法与司法等环节关于法律的社会博弈是复杂的、多层面和跨领域的,每个利益和行动主体的策略是一系列有机联系的局部行为决策的汇合。法律中行动者的决策问题可以区分为如下几类:第一,确定环境下的决策,一个行动决定单一结果。第二,不确定环境下的决策,一个行动可能伴随多个可能结果。这两类统称为“一人决策”(人对自然的博弈):哪怕面对的自然再复杂,它也只是表现为可能与人的行为相关的概率分布,但它不会根据人的不同行为采取针对性的特定反应。第三,给定包括法律在内的游戏规则后策略互动即多个行为主体博弈的局面,以及掺杂了第二类情形。互动博弈有一个微妙的方面,譬如围棋,由于我的策略建立在对你的策略的预测基础上,而你的策略又建立在对我策略的预测基础上,这使得推理的链条由于自我相关的无穷回归而格外复杂。当然博弈论中如纳什均衡及其精炼这样的解概念就是要解决这种策略不确定性。第四,设定博弈规则即立法,这些博弈规则适用于特定的社会场域,其中各种博弈在特定的时空或人群中按照一定的概率分布出现。

  这四类问题的复杂度是递进的,后面都以前面为其特殊情形。简单的案情分析和适用法律,如前两类,而诉讼和立法面对的问题则多属后两类。前者恰恰是目前人工智能做得成功,也确实是最容易突破的工作,所需要的是那些初步的但却可能是烦琐的、机械性的技能。后者则是需要综合的、策略性思考,结果也具不确定性(推理高度概率化),当然更需要洞察和创见。

  “法律之神”的思考

  这些问题的解答,即当事人及其律师、法官、立法者的行为选择,也可以看作他们与“法律之神”的博弈,他们要努力猜中“法律之神”的答案,以尽量大的概率赢得竞赛。那些要替代他们的人工智能,面对的是同样的问题——模拟或者趋近“法律之神”的思考与决策。

  所谓法律之“神”,实际上是人基于信息进行推理和计算能力的逻辑极致,而并非是说他像上帝一样对一切信息一览无余。有一定智能和理性的凡人在一个场景下的决策问题,包括如下一些基本要素:可行行动集;每个行动所可能产生的一组结果以及这些结果依赖于行动的概率分布;根据对这些结果和概率分布的综合评价所得到的对每个行动价值的赋值(valuation),即博弈论中所谓的酬报函数(payoff function);以及理所当然的,对上述要素的认知。所谓决策,就是这个理性而又智能的凡人选择一个最大化其酬报函数的行动。人工智能的软件设计的核心,在于形式化如下要素:对其所运用的场域的认知、最关键的评价函数的设置处理,以及建立在二者之上的决策。这些评价函数,通常不同于现实世界中人们以效用和生存繁衍等为指标的酬报函数,而是模仿“法律之神”取得成功的测度,所以在很多情形以概率形式表现出来。

  就执法、司法和律师普通业务而言,面对一项社会纠纷,最基本的就是进行法律事实判定和适用法律。实体法律规范的基本逻辑就是:某些人在某些情况下具有做某些事或获得某些结果的权利,相应的其他人则有义务在某些情况下做或不做某些事;如果这些负有义务的人做了法律不允许其做的事情(包括不作为),则受到何种惩罚,享有权利者得到何种奖励或补偿。如果得到了法律事实的判断,适用法律规范进行惩罚和奖励,几乎是简单的三段论推理。只要法律规范足够全面,法律事实范围足够周延,计算机在这个层面可以做得很好。

  那么,更进一步,我们近期可期待的是,人工智能能否帮助我们判案。把法律事实的判断加以形式化,本质上是一种基于证据的概率性推理,其中贝叶斯推理是其基本形态。现实世界中的司法者,如果他能够像“法律之神”那样思考,那么根据科学技术的知识,得到各种证据和法律事实之间的严格逻辑决定关系和统计相关度,依据贝叶斯定理可以得到在一定证据下某种法律事实的概率,基于不同法律场域(如刑事与民事)所要求的证明力的阈值则可得到相应的定性结论。我相信,目前人工智能能够做到的是,根据对案例库的统计,计算机可以得到证据与法律事实之间关系的先验分布,从贝叶斯法则得到后验判断,软件可以根据概率大小做出结论,然后据此与已有典型案件的判决比较看是否冲突以及冲突多大以检验之。

  由此带来一个新的博弈问题,当你的人工智能法律助手告诉你,你的当事人将以接近于1的概率被陪审团判定为应该为发生的谋杀案负责,而你也清楚你的对手如检察官或对方代理律师也清楚此点,此时你该怎么办?你关上电脑然后告诉你的当事人自安天命?现实中几乎每一个行为主体所认知到的博弈都可以被嵌入一个范围更为广阔的博弈。这种博弈中的策略性思考,包括对对手和伙伴的偏好、手段与认知的不确定性的判断,甚至对自己关于某些要素的无知的自省,综合这些思考后的决策正是法律人可以一展身手的地方。

  “人无远虑,必有近忧”,正如大部分人的懊恼都来自过于相信明天和今天一样,法律职业的危机已经存在并只会受到越来越大的冲击。理智的适应环境是进化的基本法则,法律职业教育也是如此。霍姆斯关于“懂得法条的人可能掌握着现在,但掌握未来的人则是统计学与经济学大师”的预见,今天我们可以再加上“懂得逻辑与算法的”修饰词。

  (作者单位:中山大学法学院)

责任编辑:张月英
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026