司法领域应审慎使用人工智能
2022年12月07日 09:51 来源:《中国社会科学报》2022年12月7日总第2546期  作者:练志闲/编译

  本报综合外媒报道 加拿大康考迪亚大学官网近日报道称,该校学者尼哈·楚格(Neha Chugh)研究认为,将人工智能应用于加拿大刑事司法体系为时尚早,因为目前还没有足够的措施应对机器和人类的偏见问题。最新一期《IEEE技术与社会杂志》刊发了楚格的新研究《风险评估工具拷问:人工智能系统的去与留》。

  如今,人工智能技术被广泛应用于各种领域,包括刑事司法系统。在美国审前程序的风险评估中,算法和数据越来越多地被用于评估被告再犯罪的风险。支持者认为,人工智能可以避免警察、法官或检察官等刑事司法人员的固有偏见。楚格对这种说法提出了质疑。她在论文中提出,尽管人工智能风险评估尚未应用于加拿大法院,但已经出现了一些危险信号,有些问题急需司法系统解决。她表示,在刑事司法系统中,原住民被告的比例过高,导致其更容易受到数据驱动性工具缺陷的影响。

  楚格认为,风险评估工具普遍存在问题,如埃沃特诉加拿大案(Ewert v. Canada)。杰弗里·埃沃特(Jeffrey

  Ewert)是“梅蒂人”,即父母一方为加拿大原住民,另一方为欧裔,他因谋杀和谋杀未遂而被判终身监禁。埃沃特声称加拿大惩戒署的心理风险评估系统对原住民有文化偏见,使原住民刑期远超非原住民,且服刑条件更差。最后,埃沃特在最高法院申诉成功。

  楚格表示,偏见与歧视的存在误导了评估工具,那么如何确保算法最终得出正确的结果?使用人工智能进行风险评估只是将偏见从人类转移到人类创造的算法中罢了,有偏差的数据信息库只会让算法得出有偏差的结果。法律和法规为法官的工作提供了一定的空间,并为考虑个人历史和特殊情况等因素保留了余地。过度依赖人工智能进行风险评估的主要问题之一,在于缺失主观判断和尊重。楚格强调,她并不反对在法院系统中使用人工智能,但对此还需要进一步的研究。例如,需要分析算法所采用的信息,以及人们的偏见对结果的影响等。

  (练志闲/编译) 

责任编辑:陈静
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026