当自动驾驶汽车驶入现实,难以避免的交通事故不仅挑战了自动驾驶技术本身,也给法律制度提出了新的课题;同时,国外多家技术公司也因涉嫌误导性营销和隐瞒事故真相遭到公众质疑。关于自动驾驶的研究是典型的跨学科问题,它涉及跨越人工智能、汽车技术、经济、法律、伦理等诸多领域,依靠纯而又纯的单一学科思维和方法,很难取得有价值的研究成果。从现有研究看,围绕自动驾驶的算法、归责、监管等系列问题的研究,仍需打开思路,站在技术与法律发展的前沿进行深入的探讨。近日,围绕自动驾驶监管的挑战与重点,本报记者采访了美国南卡罗来纳大学法学教授布莱恩特·沃克·史密斯(Bryant Walker Smith)。
立法讨论与技术发展
《中国社会科学报》:自动驾驶领域的最新法律发展有哪些?法律发展与技术进步呈现何种关系?
史密斯:最新法律发展的一大重点是技术的发展。过去几年,有几家公司将安全驾驶员从他们的自动驾驶车辆中移除,此举好比攀岩不戴安全绳。但这个充满信心的举动却引入了新的风险,给法律框架带来了挑战,因为自动驾驶已经成为现实,不再只是假设。
从国际层面来看,联合国已经在多方面开展工作。首先是就自动化系统的设计制定国际规定,供各国纳入自己国家的法规,这一举动对欧洲影响最大,美国和日本也表示有兴趣参与规则制定,从而产生国际影响。自动驾驶车辆终将驶出国界,这也涉及跨国数据交换及各种控制问题,比如,车辆的公司可能在某个国家,而它的监控系统的远程代理可能在别的国家。国际对话有助于促进思想交流与协调,并由此开启跨国问题的相关讨论。因此,在联合国层面各国正在讨论是否有必要签署有关自动驾驶方面的新约定。欧洲国家普遍支持这种做法,而其他国家则持迟疑态度。
从美国国家层面来看,美国国家公路交通安全管理局(NHTSA)及美国交通运输部花费了多年时间思考自动驾驶的监管问题。虽然他们行动的速度比预想的要慢,但目前也完成了一些重要工作。首先,为了调整相关标准,从而适应自动驾驶环境,相关部门开始重新审视《联邦机动车辆安全标准》。其次,美国国家公路交通安全管理局运用了大量的执法权和调查权来实时监测和处理自动驾驶方面的安全问题,包括对某些驾驶辅助系统进行调查,要求所有正在开发部署自动驾驶系统或特定驾驶辅助系统的公司上报数据供其分析研究。
美国国会暂时还未采取任何行动,目前来看,美国国会并没有促进或是规范自动驾驶的迫切必要——因为这两项任务都在美国交通运输部的管辖范围之内。但美国国会并未采取任何行动背后的原因可能涉及诸多细节,或许是汽车行业想要等候更好的结果,或许是其他利益团体有着不同的优先级。例如,阻碍法律通过的一大问题是,出庭律师想要确保自动驾驶公司不能强迫客户通过仲裁解决索赔,即受害人仍然可以诉诸法院。
美国在联邦层面实行了自我认证制度,即联邦政府规定一系列车辆标准,而汽车制造商需要证实其车辆符合该标准。州一级政府在新车安全方面也有一定的法律权威,但主要集中在操作安全方面——车辆是否注册、是否妥善维护、驾驶员是否持有有效驾照,各州在自动驾驶方面采取了不同的执法方式。我始终主张,自动驾驶可能已经合法。许多州也持这一观点,例如在亚利桑那州尚未出台任何相关法律之前,自动驾驶早已在当地实现。加利福尼亚州搭建了复杂的自动驾驶监管体系,而得克萨斯州和佛罗里达州则采取不干预态度。有趣的是,在许多方面,一个州在立法上采取的行动与该州是否发生自动驾驶活动之间存在复杂关系。比如,当加利福尼亚州实施自动驾驶法规时,人们认为车企会避免在加利福尼亚州测试自动驾驶车辆。实际上,为了向投资者展示他们获得了政府批准,许多公司反而选择到加利福尼亚州进行测试。
责任分配不应复杂化
《中国社会科学报》:自动驾驶让事故责任分配问题变得很复杂。该如何分配制造商、软件开发商和驾驶员的责任?
史密斯:系统越自动化,责任就越简单。如果人类负责维护和驾驶自己的车辆,那么法律会认定在事故发生时,人类是负有责任的。而当系统完全自动化时,车辆中人类的责任可能会很小,好比出租车的乘客一样,而开发和部署该系统的公司需要承担责任。在这两种情况的中间地带,浮现了诸多概念问题和法律挑战。例如,人类可能需要决定何时启动系统,虽然不需要看着道路,但仍需留心车辆发出的提示。系统提示人类马上接管,人类需要做出反应,查看车辆故障,此外,还要警惕紧急情况等。这引发了一系列问题:人类需要做什么?人类可以做别的事情吗?需要多快做出反应?如果人类不接管自动驾驶,谁是驾驶员?有的国家建议人类依然要负责确保车辆得到妥善维护、乘客系好安全带、事故发生时及时做出反应。
我认为此类讨论将事情复杂化了。归根结底只有两种情况:要么是人在驾驶,要么是自动系统在驾驶。公司通过结合人工代理和机器代理实现自动驾驶,直到人类主动恢复驾驶之前。这种方式能够将责任放在最有能力确保行车安全的实体身上。也就是说,如果车辆要求人类继续驾驶而人类不接管,那么自动系统仍然是驾驶员。这将刺激公司采取必要手段,包括座椅振动、调高收音机音量、呼叫紧急救援人员等,如果有人没系安全带,或是汽车胎压不足,自动驾驶模式就不能启动。公司应该想办法将驾驶责任委托给用户,或是启动替代方案,如指派无人机运送交通锥,调派呼叫中心、人类操作员、备用系统甚至远程驾驶员。
如果未来的自动驾驶车辆涉及多家公司(如维护、软件开发、硬件公司、组装公司、平台公司),那么我们将回归到责任的基本原则,即责任不是二元的。可以根据多种理论追究多个实体的责任。例如,激光雷达设计得不够好的制造商可能要承担责任。但我倾向于法律应该确定负有主要责任的公司,其他公司可以在它们之间决定责任归属问题,但受害人可以追究所有参与者的责任。
《中国社会科学报》:监管机构是否会将自动驾驶与远程驾驶的区别考虑在内?
史密斯:这些术语的确经常被混淆使用,其实自动驾驶、辅助驾驶、连接驾驶、远程驾驶各有区别。自动驾驶实际上是通过机器替代人类,硬件和软件实时执行动态驾驶任务。相比之下,远程驾驶只是将人类移到其他地方,比如车辆的后排,甚至千里之外。同时,这些系统之间存在重叠,比如远程驾驶系统必然会用到自动驾驶的某些功能。因此,如果与人类的连接中断,系统便需要独立运作以恢复到相对安全的状态。因此,在许多方面,远程驾驶必然涉及某种形式的自动化。至于自动驾驶是否必然涉及远程驾驶,答案是否定的。这对于正在开发自动驾驶技术的公司来说非常重要。尽管自动驾驶也能够远程协助,且人类也可以参与到驾驶过程中,但进行实时刹车、加速和转向的并不是人类。例如,车辆可能碰到施工区域后显示不知道该怎么办,此时人类应该要告诉系统,你应该沿着这条路但绕过交通锥。人类甚至可以规划出一条路径,然后自动驾驶车辆会根据该路径,使用传感器决定怎么走。在这种情况下,虽然自动驾驶系统需要人类,但不一定是将人类作为驾驶员。有些公司在此基础上更进一步地表示,在处理事故或响应执法时,人类实际上是在以远程驾驶的方式实时指导车辆运动。
在监管方面,英国的监管机构已经开始尝试划定远程驾驶与自动驾驶的界限从而进行监管。但我认为,纵然这些系统在技术上有诸多区别,但在监管方面并不需要复杂化。有的公司通过机器代理(如自动驾驶系统)以及人类代理(如远程助手或远程驾驶员)来驾驶车辆。在法规方面,我们不应该区分车辆在这一段路上是人类在驾驶还是机器在驾驶。我们应该认定全程都是自动驾驶系统在驾驶,当自动驾驶系统无法安全驾驶并因此违法时,主要责任归属于汽车公司。换个角度看,在人类驾驶普通车辆的情况下,车辆失灵时,我们会寻找发生故障的原因,背后不一定是驾驶员的问题。未来还可能出现自动驾驶系统在驾驶但人类故意入侵该系统的情形,此时人类应该承担相应的责任。今天的法律很复杂,未来依然会很复杂,但我们不必将问题进一步复杂化。
坦诚是用户信任的前提条件
《中国社会科学报》:随着自动驾驶技术日趋成熟,公众观念是否会显著变化?
史密斯:人们在体验自动驾驶汽车之前往往很紧张,但一旦坐上去之后又很快适应了,因为它与普通汽车几乎没有什么区别。之后,可能发生的一些安全事故导致用户对自动驾驶车辆的信心下降。但当人们有了使用它的理由后,大家又将对自动驾驶车辆重拾信心,这也是人类心理的多变性。公众是善变的,我们容易受到营销影响,也可能言行不一。因此,调查公众是否信任自动驾驶的意义不大。我们不该问公众是否信任某个新技术,而是问技术公司是否值得信任。如果不值得信任,那么这些公司生产的汽车就不应该上路。这种问法将焦点从技术转移到公司,从实证问题(信任度)转向规范性问题(可信度)。
将公众信任的问题与企业的可信度分开讨论很重要。单纯因为公众信任某项技术并不意味着该技术有资格获得信任,将二者画等号是危险的,因为技术失败时有发生。最近,加利福尼亚州发生了一起Cruise公司无人自动驾驶车辆拖拽行人的事故。很多关注点都集中在Cruise公司自动驾驶系统的失效上,几乎没有人提到最先撞到这个行人的其实是前面一位逃逸事故现场的人类驾驶员。确实,Cruise公司的自动驾驶系统出错了,但技术开发的过程中难免发生悲剧。我们对技术的最低期待是它们导致的事故率能低于人类驾驶汽车的事故率,因为驾驶本身就存在风险,在美国开车尤其危险,比加拿大、英国和澳大利亚都更危险。美国每天约有100人死于普通交通事故。国家、社会、监管者、制造商都未能解决这个问题。因此,谈论新技术时不该把所有注意力都集中在新事物上。
虽然技术失败在所难免,但汽车公司仍有机会弥补。但在这起案例中,Cruise公司选择隐瞒事故真相,误导公众,只向记者展示了人车相撞后车辆停下来的视频,没有展示车辆重启并将行人拖行约10米的视频内容。这是不可饶恕的,因为在获得数百万公里的行驶经验之前,公众判断自动驾驶系统安全性的唯一方法就是评估技术公司是否值得信赖。这些技术极其复杂且不断变化,充满不确定性,并不是每次驾驶都能得到相同结果。甚至连监管机构都缺乏相关完全理解系统的资源、数据和专业知识。因此,可信度成为了衡量安全性的替代指标。
《中国社会科学报》:值得信赖的技术公司应如何提升可信度?
史密斯:我认为要想值得信赖,公司需要做到三件事:与公众分享其安全理念、作出承诺和信守承诺。首先,详细解释公司正在做什么,为什么相信自己所做的事情相对安全,为什么公众可以相信它。这相当于制定了一个公共安全案例,并用证据支持它。其次,向公众承诺该公司只推销自己有理由认为安全的产品,并坦率地说明产品的局限性和不足之处。当产品失败时,公司应该立即纠正错误。最后,技术公司不该过度提高公众期待,同时监控产品生命周期。这意味着公司不能掩盖事实,不寻求私下和解来掩盖有人在车中受伤的事实。多年来,我们目睹了整个自动驾驶行业夸大宣传,人为提高公众期待,导致一些公司骑虎难下,宣传效果适得其反。例如,公司应该对公众坦白:“现在我们还无法应对下雪天”,或是“在某些驾驶场景中自动驾驶的风险略高于人类驾驶……这是我们正在努力解决的问题”。一年后公司再汇报改进程度。这种做法才是有可信度且有益于公司的,用户信任也会随之而来。
《中国社会科学报》:虚假宣传会带来什么问题?
史密斯:一旦自动驾驶行业决定要面向公众,他们就会集合汽车行业和信息技术行业强大的营销力量说服公众认为自动驾驶存在价值。例如,优步和来福车这两大打车软件的汽车数量占汽车总量的不到1%,却颠覆了整个出租车行业,彻底改变了人们的出行方式。同样的,尽管当前自动驾驶技术不会普及到所有人,且最需要它的人暂时还享受不到这个服务,但是这项技术仍将产生重大影响。
前不久,特斯拉公司将其驾驶辅助系统命名为“Autopilot”和“Full Self-Drive”,它们不是自动驾驶系统,反而需要人类比以往更专注地监督和驾驶该车辆。业已发生的有关自动驾驶事故可能是系统性能差导致的,比如检测不到路边的静止物体,或者甚至可能驶向某些物体,也可能是因为驾驶员以为系统足够智能所以松懈。特斯拉想鱼和熊掌兼得,在利用自动驾驶的噱头的同时,将责任推给用户。不久前,一位司机因依赖特斯拉汽车自动驾驶系统而导致事故并被刑事起诉,该案结果对司机不利。还有一些诉讼中的事故受害者称特斯拉自动驾驶系统导致了事故。有两个早期的法院判决支持特斯拉公司,还有一些事故在进入法庭审判前就达成了和解,因此我们永远不会知道案件结果如何。目前能看出陪审团更关注人类,不够关注可能导致人类松懈或引发问题的环境因素。有些州一级的政府针对特斯拉的系统性能和误导性营销展开了调查,研究其是否应该根据州法规进行监管。预计我们最终会看到更多相关诉讼的新闻。
自动驾驶研究涉及多个学科
《中国社会科学报》:决策算法的伦理问题引人深思。我们该如何利用法律手段解决自动驾驶汽车带来的道德困境?
史密斯:10多年前,我以电车难题为例说明了为什么完美是不存在的。不幸的是,后续的相关讨论不断扭曲了我最初的讨论。伦理问题的核心不是汽车杀死了谁。那是一个干扰项,真正应该讨论的伦理问题是我们一直以来都面临的问题:公司是否应该欺骗和掩盖事实?有没有充分考虑用户和公众的各种需求?电车难题对社会学家来说可能很有趣的,但对于自动驾驶技术来说不是。因为当你在两种不可避免的伤害之间进行选择时,意味着已经出现了一连串的失败:车辆可能一直在以过快的速度行驶,或是系统可能接受了本不应该接受的风险。
设计这些系统时需要考虑到概率,即是否超速、是否跟随车流、驾驶风格是否激进等因素。然后根据具体情况进行调整。存在冲突时如何处理?该不该减速?处理一个又一个障碍,这才是车辆上路后自动驾驶系统实际采取的方式。因此,当我们讨论自动驾驶系统的设计时,不该过于关注所谓的困境,应该退一步审视,如何识别和管理风险并公开坦诚地直面挑战。
《中国社会科学报》:在这一领域,法学家还可以研究哪些课题?
史密斯:我对执法问题很感兴趣,比如汽车公司与公共实体的关系。汽车公司是否积极主动地与警察局共享数据,汽车公司发现有人在车里吸毒是否会报案,汽车公司是否会确保数据无法通过外界的其他技术检索和访问等。
法学领域的学者还可以研究私人执行的问题。汽车公司将如何运用自己的权力,例如,如果行人走到自动驾驶车辆前面,公司是否应该识别出此人的身份?是通过面部识别技术还是通过检测行人的手机来识别其身份?如果此人做了一些不道德行为,公司是否会禁止该人使用公司的其他服务作为惩罚?这个问题涉及到私企不断增长的潜在权力。
另外,考虑到自动驾驶车辆可能会改变人们的出行方式和城市构造,这就涉及了土地使用、道路使用等问题。如何规划有限的空间?城市在管理路侧空间时能否优先考虑某些用户?如何出台激励措施鼓励使用和部署自动驾驶技术,从而实现更广大的公共政策目标?还有一些重要的法律和政策问题涉及低收入和中等收入国家,比如如何在这些国家推广新技术?我们现在应该做什么来减少对中低收入国家的影响?这是与技术、政策和进步有关的问题:我们需要用新的问题取代老的问题,但总体而言,新问题会比老问题少。
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>