围绕AI代理的法律辩论日益被全面改革的呼声所主导,其中包括赋予AI法人资格等提议。尤其值得注意的是,“责任法”常常被认为无法跟上快速的技术变革。由于AI系统可能具有不可预测性和不透明性,批评者认为AI造成的损害挑战了责任法的基础。这些主张往往反映了“技术特殊论”(即新兴技术如此新颖或具有颠覆性,以至于需要全新的法律框架),并助长了关于AI代理需要一套全新法律制度的争论。
这种认为“现有责任制度不足以应对挑战”的论调,遵循着一种常见的模式。通常情况下,当一项新技术出现或社会发生变革时,学者和政策制定者会警告其存在特殊风险,强调其所谓的独特技术特性,并呼吁建立专门的法律制度。然而,那些历经数十年甚至数百年,在极少改动的情况下,已适应深刻的社会和技术变革的长期法律框架,却往往被忽视。
笔者认为,如今的AI代理可能比人们通常认为的更接近传统产品,现有的过失责任和产品责任原则,只需进行有针对性的调整,就能很好地应对AI相关的危害,而无需进行彻底的改革。
一、法律与经济学分析:AI代理与传统产品的规范性相似
为了展开这一论点,采用法律经济学的视角十分有益,它为分析这一问题提供了一个独特的规范性视角。这种方法并非仅仅关注责任法的形式条件和限制,而是从经济角度探究责任规则在多大程度上激励了某些行为。其核心前提是,个人和企业至少在一定程度上受到利润的驱动。如果一家公司在考虑推出AI代理时必须决定是否在安全方面投入更多资金,那么如果预期赔偿成本低于额外预防措施的成本,该公司可能会放弃这笔投资。虽然公司和个人通常也会权衡伦理问题和声誉风险,但经济基准为引导AI开发者和用户的行为提供了一个有用的框架。
从规范的角度来看,AI代理与传统产品有着显著的相似之处。
尽管具体的义务有所不同,而且AI可能具有不可预测性和不透明性,但开发者仍然像对待传统产品一样,负有防止可预见损害的责任。人们期望他们谨慎地设计和训练AI系统,使用充足的数据并采取安全措施来应对已知的风险;他们也被要求确保其AI系统尽可能地准确。此外,他们还可以通过确保其代理具有可解释性来降低损害风险,从而使其能够接受一定程度的监督。
与其他任何产品一样,生产者——即AI代理或系统开发者——通常最能应对和降低该产品的风险。开发者通过选择训练数据、训练规模、模型设计和安全措施,拥有独特的能力来预防或纠正安全问题。他们也能够通过定价来分摊这些措施的成本,这符合“开发者是成本规避者”的法律经济学理念。这为最终追究开发者对AI代理或系统造成的损害的责任提供了重要的规范性基础。AI的不透明性和复杂性进一步强化了这一规范性结论,因为除了开发者之外,任何人都难以发现或修复缺陷。
与此同时,开发者并非唯一的相关方。如果医生明知AI代理的错误率却仍然使用,那么仅仅追究开发者的责任就毫无意义。同样,如果有人明知这样做不妥却仍然选择用 ChatGPT 代替律师,那么将责任完全归咎于开发者也是不恰当的。在这种情况下,激励用户负责任地使用AI相对容易:当用户知道某个产品存在危险时,责任规则可以阻止他们以可预见的方式使用该产品,从而避免造成伤害。这表明,从规范的角度来看,开发者应该告知用户AI系统的局限性和风险。诚然,对于本质上复杂的系统——例如自动驾驶汽车——用户理解AI代理风险的能力可能有限,在这种情况下,将责任从开发者身上转移出去是不合逻辑的。至关重要的是,用户的责任应该与其做出知情部署决策的能力相匹配。
当用户能够理解相关风险时,追究用户而非开发者的责任在规范层面尤为重要,因为鼓励开发者发布存在局限性的AI代理和系统可能符合社会期望。工具本身可能存在缺陷,甚至可能造成伤害,但如果使用得当,仍然可以带来显著的益处。正如我们不会也不应该盲目地追究OpenAI的责任,如果医生仅仅基于GPT-5的症状分析而非运用医学专业知识来治疗病人一样,也不能合理地期望开发者承担此类滥用行为的全部责任。确保用户承担责任可以防止激励机制失效,否则可能会阻碍开发者提供有价值的工具。
然而,挑战依然存在。除了复杂性之外,AI的快速发展意味着其持续的开发和应用可能会产生超出开发者或用户自身利益的社会效益。这种现象——通常被称为“效益外部化”——反映了未来社会收益(例如自动驾驶汽车减少事故)与当前用户期望之间的差距,而用户期望往往局限于即时效用。因此,即使持续改进能够随着时间的推移产生公共价值,开发者在早期阶段也难以推销AI解决方案。由于这种未来价值难以在今天实现,因此过早地将责任强加于开发者和用户可能会抑制创新,从而可能延缓甚至阻碍那些能够带来长期社会效益的进展。
二、责任分配的核心:开发者与用户的义务平衡
抛开这些规范性论证不谈,美国的责任制度未必能相应地分配这些风险。在现有的美国责任框架中,过失责任是默认的一般责任,而产品责任——侧重于缺陷产品——则是一种专门的、更为严格的制度,旨在追究制造商的责任。在“严格责任”制度下,开发者或用户无论其行为如何,都应对造成的任何损害承担责任。
根据过失责任,如果受害者能够证明其所遭受的损害是由他人的过失行为造成的(在本例中,指的是AI代理的开发者或用户)则可以获得赔偿。然而,过失责任缩小了责任范围:它要求证明开发者或用户在开发或使用该代理时未能像一个理性的人那样行事。因此,与“严格责任”制度相比,过失责任更为有限。
此外,AI 代理具有一些独特的特性,例如自主性、不完美性、不可预测性和不透明性,这些给过失侵权法的评估带来了重大挑战。AI代理的复杂性和不可预测性使得受害者难以证明过失和因果关系。例如,损害究竟是源于不合格的AI开发,还是仅仅源于一个原本性能优异的系统固有的缺陷,这一点可能难以确定,下文将对此进行更详细的探讨。
虽然过失侵权法有一些原则可以处理其中一些问题,例如“经验之手检验”(Learned Hand test)检验明确指出,只有当预防成本低于预期损害成本时,才产生责任。但这些原则难以应对AI复杂特性带来的挑战。
因果关系是过失责任的核心要件。在AI领域,我们往往难以确定损害是由AI代理的开发或使用疏忽造成的,还是即使采取了谨慎的做法也仍然会发生。然而,现有的法律制度提供了有益的指导。例如,医疗事故法就处理了无法确定不当行为是否直接导致损害的情况。如果医生未能提供适当的治疗,导致患者遭受痛苦,我们可能无法得知如果医生更加谨慎,结果是否会有所不同——因为治疗可能并非在所有情况下都有效。在这种情况下,法院会将医生视为导致患者丧失了避免损害的机会,并判处相当于损害总额乘以因果关系概率的赔偿。类似的“机会丧失”框架也可以应用于AI领域。
然而,大多数AI系统的复杂性使得因果关系和过失的评估远非易事,尤其对于缺乏技术专长的律师和法官而言更是如此。由于开发者或用户与受害者之间存在信息和专业知识的不对称,受害者在评估系统性能方面也面临着巨大的挑战。鉴于此,欧盟曾考虑引入因果关系推定来帮助AI相关伤害的受害者,但该提案最终未被采纳。根据这种推定,如果受害者能够证明存在过错和伤害,则推定过错与伤害之间存在因果关系。
如果缺乏此类推定或类似工具,AI相关伤害的受害者只能独自承担后果。这不仅削弱了赔偿机制,也降低了开发者和用户预防伤害的积极性。
三、实践挑战:过失责任在AI Agent应用中的局限
虽然过失责任是默认的框架,但并非适用于AI代理和系统的唯一制度。上文概述的许多主要将责任归咎于开发者的法律经济学原理也适用于产品。因此,产品责任为追究制造商的责任提供了一条独立的、由两部分内容组成的路径:
第一个组成部分是设计缺陷,它关注产品的设计方式,如果产品本可以合理地做得更安全,则通常会追究制造商的责任;
第二个组成部分是制造缺陷,当损害是由制造过程中引入的缺陷造成时,制造商将承担严格责任——即无过错责任。
在AI领域,制造缺陷及其相关的“严格”责任制度尤为引人关注。乍看之下,这似乎提供了一种追究开发者责任的方法,无论其是否存在过失,这与上述法律经济学分析相符。然而,问题在于,大多数错误的AI输出源于训练过程,而非制造缺陷,例如传感器或组件故障。因此,有害的AI输出通常被视为设计缺陷,并普遍采用风险效用检验,从而限制了严格责任的适用范围,最终适用基于过失的设计缺陷规则。
尽管如此,产品责任仍然提供了宝贵的工具。值得注意的是,它规定了“警示义务”,这与法律经济学视角下所指出的义务相呼应。开发者必须提供警示,使用户能够预见并减轻损害。然而,由于许多AI系统的复杂性,这种义务的有效性受到限制,难以全面或细致地传达风险。
四、改革路径:有限调整优于颠覆性重构
综合分析,针对当今AI代理,我们可以得出以下几点结论:
首先,如果AI继续快速发展,或许需要进行更根本的改革。但就目前而言,现有的AI代理和系统应遵循与传统产品大致相同的监管机制,不过有两点需要注意。第一,随着AI能力的提升,我们可能需要更加重视AI代理本身的行为,而不仅仅是与其相关的人类;第二,我们需要进行一些调整以应对某些系统的复杂性——这就需要对可能无法充分告知用户的开发者施加更严格的问责。
其次,在某些情况下,社会应该承担AI开发和使用的部分风险,以此激励具有长期公共利益的创新。
现行侵权法并未充分提供这些激励措施。传统的设计缺陷和制造缺陷之间的区别并不适用于AI代理,尤其是在风险源于有缺陷或存在偏差的训练数据时,这些数据通常被视为设计缺陷。然而,导致AI代理性能不足的劣质训练数据,在功能上可能等同于制造缺陷,从而使开发者承担严格责任。若不进行此类调整,现行制度(如过失责任)无法为AI安全提供足够的激励。但是,当用户明知AI代理或系统的风险却仍然鲁莽使用时,过失责任可以在追究其责任方面发挥关键作用。
过失责任和产品责任都已包含许多应对AI相关危害所需的要素:当用户意识到AI系统的风险时,过失责任仍然是规范用户行为的关键;而产品责任则明确了开发者对设计或训练缺陷的责任。
我们需要的并非彻底改革,而是谨慎的调整,并有可能将某些针对特定领域的制度(例如医疗事故赔偿制度)扩展到更广泛的AI领域。结合法律专业人士更高的技术素养,这种方法是确保AI代理的责任落在真正应该承担责任的各方身上的最佳途径。
作者:马尔滕·赫博施(Maarten Herbosch)
法律与人工智能研究所的高级研究员,也是比利时鲁汶大学人工智能与法律专业的助理教授授
【免责声明】本文撰写所需的信息采集自合法公开的渠道,我们无法对信息的真实性、完整性和准确性提供任何形式的保证。本文仅为分享、交流信息之目的,不构成对任何企业、组织和个人的决策依据。
《互联网法律评论》提供业界解决方案
互联网法律国际监管动态研究
互联网产业投资和政策监管研究
互联网企业:极端地缘政治冲突中的公关战略研究
合作联系
zhangying@cggthinktank.com