人工智能应用未能提升司法裁决准确性
2024年09月06日 09:41 来源:《中国社会科学报》2024年9月6日第2972期 作者:崔岫/编译

  本报综合外媒报道 如今,人工智能在医学、商业等许多领域都得到了广泛应用,但人工智能作出的决定会比人作出的决定更加正确吗?特别是在司法领域,有研究发现,事实上,人工智能的应用并未能提升司法裁决的准确性;如果裁决是由人工智能单独作出的,其准确性还不如由人单独作出的决定。

  美国哈佛大学校报《哈佛公报》(The Harvard Gazette)近日报道称,在当今这个时代,基于数据驱动算法的人工智能的使用可以说是无处不在,但在很多情况下,特别是在风险较高的时候,一般仍然是由人来作出最终决定。因此,关键问题在于,与人独立作出的决定或人工智能独立作出的决定相比,人在人工智能的辅助下作出的决定是否是最佳决策。为了回答该问题,哈佛大学的研究人员在美国威斯康星州戴恩县进行了与保释金假释有关的随机对照实验。

  保释制度在美国刑事司法体系中占据重要位置。最初的保释形式是由他人提供担保,即由被告人的亲友来承诺保证被告人按时出庭。进入19世纪后,随着人口的迁移,人与人之间的联系变得日益松散,以金钱为担保(即交付保证金)申请保释逐渐成为主要形式。20世纪60年代又出现了通过签署个人承诺书或者无担保保证书而获得保释的形式。犯罪嫌疑人/被告人可以通过哪种形式获得保释一般由法官决定。研究人员追踪调查了戴恩县的法官在2017年年中至2019年底之间作出的批准保释裁决,以及犯罪嫌疑人/被告人在被保释后24个月内是否再次被逮捕。

  研究结果显示,法官独立作出决策的准确性与法官在人工智能辅助下作出决策的准确性几乎没有差异;当由人工智能独立作出决定时,其表现不如法官,无论法官是独立还是在人工智能辅助下作出的决定。人工智能往往不能准确预测犯罪嫌疑人/被告人是否会再次被逮捕,却会更加严厉地使用与保释有关的各种限制性措施。例如,对更多的犯罪嫌疑人/被告人适用现金保释措施,而不是让他们签署个人承诺书或者无担保保证书。并且,人工智能会建议对非白人犯罪嫌疑人/被告人收取比白人犯罪嫌疑人/被告人更多的保释金。不过,在超过30%的案件中,法官没有听从人工智能的建议。

  研究人员表示,这非常令人惊讶,因为已有证据大多显示,以算法为基础的人工智能作出的决策会比人类的决策更准确。发生这种情况可能是因为算法设置得过于严格,导致人工智能高估了犯罪嫌疑人/被告人再次做出不当行为的可能性,认为犯罪嫌疑人/被告人会经常做出不当行为并被逮捕,因而建议采取过于严厉的措施。研究人员认为,应研究刑事司法系统目前使用的人工智能以及人类的决策方式,以期改进人工智能的决策,并通过重新校准算法来解决此类问题。

  在研究人员看来,人工智能或者说算法的优点在于它们可以变得透明,关键是要拥有可以随时进行实证评估和分析的开源人工智能。

  在实验中,研究人员引入了一种新的方法框架。他们将“决策者的能力”这一概念表述为,通过将标准不确定的矩阵和因果推理的潜在结果框架相结合来解决分类问题。决策者自己通过作出非随机决策来确定哪些潜在结果应当受到关注。例如,在决定是否对犯罪嫌疑人/被告人收取保证金时,法官必须在公共安全、法院的管理效能和各类监禁成本之间取得平衡,他们需要能够根据各类参考因素预测犯罪嫌疑人/被告人在被保释后可能做出的行为,并对其社会危害性进行分类,进而就保释相关事宜作出判断。研究人员认为,法官的这种能力可以被定义为决策能力。

  (崔岫/编译)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026