欧洲学者探讨人工智能民事责任
2021年07月21日 09:52 来源:《中国社会科学报》2021年7月21日第2212期 作者:姚晓丹

  近年来,以信息技术为核心的人工智能技术日益受到广泛关注。它不仅成为引领新一轮科技革命的技术之一,而且正在逐渐融入人们的生活,在交通、医疗、金融等领域得到了广泛应用。许多相关领域的专家和机构都在思考,应该如何在促进人工智能技术发展的同时,对其进行监管并降低与之相关的风险。在此背景下,民法学者也对与人工智能有关的民事责任问题进行了热烈探讨。英国比较法协会官方网站7月2日发文表示,该协会不久前举办了“侵权责任比较:与新兴技术相关的民事责任”网络研讨会,并介绍了与会专家的主要观点。本报记者就此采访了有关学者。

  各国人工智能民事责任立法趋势不同

  文章表示,在此次网络研讨会上,来自德国、法国和英国的学者共同探讨了与新兴技术相关的侵权责任问题,对欧盟、德国、法国和英国法律中的相关规定进行了分析和比较,并探讨了新的数字技术给侵权责任法乃至整个民事责任体系带来的影响。

  德国柏林洪堡大学法学院教授格哈德·瓦格纳(Gerhard Wagner)和德国汉堡大学法律系教授乌尔里希·马格努斯(Ulrich Magnus)介绍,目前德国在立法上和实践中,主要通过谨慎适用现有特殊责任制度来规制与新兴技术有关的民事责任问题。例如,在对与自动驾驶汽车相关的责任问题上,将半自动驾驶车辆与完全自动驾驶车辆区分开来,适用不同的责任制度。所谓半自动驾驶车辆,是指有驾驶员的、可以通过软件程序与驾驶员进行现场交互的车辆。在德国,与此类车辆有关的交通事故及相关民事责任问题,主要适用道路交通安全责任制度,责任的主要承担者是驾驶车辆的人。在完全自动驾驶汽车相关的问题上,则更为强调车辆制造者的责任,认为在这种情况下主要的行为人是制造商,而车辆的所有者或侵权行为发生时,坐在驾驶席上的人实际上已经变成了乘客。根据德国现行法规,驾驶员必须充分了解自动驾驶汽车的情况,并且道路交通安全责任是以强制保险为背景的。

  英国伦敦国王学院法学院讲师科尔姆·麦格拉思(Colm McGrath)表示,目前英国司法机构对处理与人工智能相关的问题,在价值观上强调以信任和透明度为先,但其在不同领域内适用的责任制度仍有一定的差异。例如在自动驾驶领域,由于英国在判断道路交通安全事故的过错责任方面,传统上较为重视驾驶员个人行为的影响,且多以保险赔偿作为相关责任问题的主要解决方案,而不是基于产品缺陷责任,所以在处理自动驾驶相关责任问题时,仍采用了以受害人为中心,强调保险作用的方法。虽然没有排除产品责任,但产品责任的触发条件较为严格,主要强调的还是保险公司的责任。而在医疗领域,英国将存在过失作为涉及人工智能的医疗损害责任的前提,认为虽然有越来越多的具有自学习系统的设备被应用于医疗保健领域,甚至一些家庭使用的保健设备也具有这种系统,但它始终只是为医疗决策提供支持,而不是代替人们做出决策,所以不应当由设计系统或制造包含此类系统的厂家来承担责任,而应由做出医疗决策的人来承担责任,但设计者和制造者应该很好地履行信息披露义务。

  相关问题关键且复杂

  法国巴黎第二大学法学院教授让-塞巴斯蒂安·博尔盖蒂(Jean-Sébastien Borghetti)表示,法国长期以来对于与产品缺陷有关的责任问题有着严格的规定,且这些规定往往更侧重于保护消费者或者说使用者的权益。与德国的趋势相反,新技术的发展似乎正在引发运营商责任在法国法律中的回归。但长期来看,“一刀切”的解决方案可能并不太适合于新兴技术,需要用不同的制度来分别规制由自动驾驶汽车、无人机、医疗机器人等引发的问题。同时还要注意因果关系规则在与新技术有关的问题上的应用以及合同责任等。

  博尔盖蒂在接受本报记者采访时表示,人工智能在当代话语和集体想象中无处不在,难以定义;或者可以将其理解为数字计算机或由计算机控制的机器人执行通常与智能生物相关的任务的能力。民事责任是与人工智能使用相关的关键而又复杂的法律问题之一。在研究与人工智能相关的民事责任问题时,需要将重点放在引发这些问题的关键因素上。这些因素可以是人的行为,前提是责任是基于过错产生的;也可以是某种类型的事件或事物的特定特征,这多发生于责任是基于产品缺陷而产生的情况,其确定取决于适用的责任制度。因此,需要知道,在因使用人工智能造成或存在与使用人工智能相关的损害时,可能或应该适用何种责任制度。

  各个国家都有自己的责任制度体系,根据具体情况和法律制度可能使用不同的责任制度,但可以在使用特定责任制度和非特定责任制度之间进行一定的区分。如果人工智能被用于由特定责任制度涵盖的领域,则可以适用特定责任制度,例如在许多国家,如果自动驾驶汽车或其他交通工具发生交通事故,将适用旨在涵盖此类事故的特定责任制度。而与人工智能相关的非特定责任制度主要涉及两个方面,即产品责任和过失责任。如果能够证明有人在设计算法时存在疏忽或过错,那么要求他对因其过错或疏忽造成的任何损害承担责任是无可厚非的,但人们很难证明这种疏忽或过错的存在。此外,软件程序或算法本身是否可以构成一个过失或过错,也是人们需要思考的问题。我们对过失的评估,通常是基于责任人行为与标准人物行为的差距进行的,如果一个机器人的行为不够标准,很有可能是因为自身存在着缺陷。为了确定这种缺陷会带来产品责任还是过失责任,应初步区分软件程序或算法中的缺陷,以及由算法控制或激活对象中的“物理”缺陷,后者只是普通的产品缺陷,因此,应当使用产品责任中的普通规则。

  此外,如果机器人被授予某种法律人格或被视为代理人,那么这可能会激发人们认识到“机器人过错”的概念,进而可能成为机器人个人责任的基础。但无疑又涉及了机器人的民事主体地位、人格权等问题,这些都是亟待研究的非常有趣的领域。

责任编辑:宗悦
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026