全文转载于《中国法律评论》2026年第1期
作者单位:程啸,清华大学法学院教授
【摘 要】:生成式人工智能侵权责任中的因果关系判断问题依现有的侵权法因果关系理论仍能加以解决。生成式人工智能侵权责任不应当采取因果关系推定规则,仍然应当区分责任成立的与责任范围的因果关系,运用条件说与相当性理论加以判断。在认定责任成立因果关系时,需要考虑侵权危险是否被内置于生成式人工智能系统的目标功能或任务设定中而分别判断。由于民法典对责任范围因果关系作出了较为明确的规定,故此重点是关注生成内容虚假错误造成纯粹经济损失的情形。第三人行为并非当然地中断提供者的行为与民事权益被侵害以及损害之间的因果关系,需要区分不同的情形分别认定。
【关键词】:生成式人工智能;侵权责任;责任成立的因果关系;责任范围的因果关系
一、问题的提出
生成式人工智能(GenerativeArtificialIntelligence),是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术,旨在通过学习大量数据的分布,捕捉数据的内在特征和模式,在保持数据分布一致性基础上进行新的内容生成。1生成式人工智能的最大特点就在于能够模拟人类的创造力与创新性,使机器可以自主创造、生成或产出涵盖文本、图像、音乐乃至视频等多种形式在内的全新内容、信息或数据。2随着生成式人工智能技术的飞速发展,尤其是ChatGPT、DeepSeek等大型语言模型的出现以及广泛使用,司法实践中已经开始出现了生成式人工智能侵权纠纷案件。例如,广州互联网法院、杭州互联网法院审理的“奥特曼案”,3北京互联网法院审理的“AI换脸案”、4“AI侵害声音权案”5以及“利用AI软件丑化恶搞他人肖像侵权案”,6杭州互联网法院审理的“生成式人工智能输出错误信息侵权案”7等。由于生成式人工智能只是生成新的内容或信息而非直接实施物理意义上的行为,因此,其侵害的民事权益主要是名誉权、隐私权、肖像权、个人信息权益等精神性人格权以及著作权、数据权益等无形财产权。8除非与有体物结合成为人工智能产品或者用户自身、第三人行为的介入,否则,作为网络服务的生成式人工智能服务一般不会直接发生侵害生命权、身体权、健康权等物质性人格权以及物权等有形财产权的侵权责任。
对于生成式人工智能侵权责任究竟适用何种归责原则,学者有不同的看法,存在过错责任说,9过错推定说,10无过错责任说,11以及区分说12等各种观点。由于我国《民法典》已经明确规定,无过错责任与过错推定责任必须以法律规定为前提(第1165条第2款、第1166条)。故此,抛开立法论,从解释论上来说,只要生成式人工智能未与有体物结合或者被应用于危险活动,作为一种新型的网络服务,生成式人工智能服务提供者的侵权责任就是一般侵权责任,13应当适用《民法典》第1165条第1款的过错责任原则。关于生成式人工智能侵权责任,特别值得研究的一个问题就是因果关系的判断。14这是因为,一则,无论生成式人工智能侵权责任适用何种归责原则,因果关系都是侵权责任的必备构成要件。二则,由于生成式人工智能具有自主性、不透明性、交互性等特点,其因果关系的判断相对更加复杂和难以证明。有鉴于此,本文拟就生成式人工智能侵权责任中是否适用因果关系推定、责任成立因果关系如何判断、怎样认定责任范围的因果关系以及介入原因等问题进行分析讨论,以供理论界与实务界参考。
二、生成式人工智能侵权责任不适用因果关系推定
所谓因果关系的推定,是指受害人无须举证证明行为人的行为与其民事权益被侵害、损害之间存在因果关系,而应当由行为人来证明自己的行为与权益被侵害、损害不存在因果关系。从比较法上来看,2022年欧洲议会和欧盟委员会提出的《〈关于使非合同性民事责任规则适应人工智能的指令〉的提案》曾认为,在人工智能责任中适用因果关系推定,是为了确保受伤害的人得到类似于不涉及人工智能的情况的保护,使其更容易证明因果关系。故此,该提案第4条第1款规定:“在符合本条规定的要求的情况下,成员国法院在对损害赔偿要求适用责任规则时,应推定被告的过错与人工智能系统产生的输出或人工智能系统未能产生输出之间存在因果关系,前提是满足所有下列条件:(a)原告已证明或法院已根据第3(5)条推定被告或被告对其行为负责的人的过错,包括不遵守欧盟或成员国法律中规定的直接旨在防止发生损害的注意义务;(b)根据案件的情况,可以合理地认为该过错影响了人工智能系统产生的输出或人工智能系统未能产生输出;(c)索赔人已经证明,人工智能系统产生的输出或人工智能系统未能产生的输出导致了损害的发生。”不过,2025年2月欧盟委员会宣布撤回该提案。15但是,在2024年10月23日欧洲议会和理事会正式通过的新的《缺陷产品责任指令》[Directive(EU)2024/2853]则明确采取了因果关系推定。该指令第4条将软件以及与产品相集成或互联的人工智能服务等数字服务认定为产品,其第10条第3、4款规定:“当已确定产品存在缺陷,且所造成的损害与该缺陷通常一致时,应推定产品缺陷与损害之间存在因果关系。在根据第9条披露证据并考虑案件所有相关情形后,若出现以下情况,国家法院应推定产品存在缺陷或缺陷与损害之间存在因果关系,或二者皆成立:(a)索赔人因技术或科学复杂性等原因,在证明产品缺陷或因果关系(或二者兼有)方面面临过高困难;且(b)索赔人证明产品可能存在缺陷,或该缺陷与损害之间可能存在因果关系,或二者兼有。”虽然我国并无任何法律或司法解释规定人工智能侵权责任中适用因果关系推定,但理论界有观点认为,考虑到人工智能致损具有持续性与广泛性,致害过程也具有高度专业性与复杂性等特点,查清因果关系较为不易,因此可以通过因果关系举证责任倒置的方式减轻被侵权人的举证负担。但为了避免过度限制人工智能产业的发展,应当仅在企业与消费者之间发生人工智能侵权纠纷时适用因果关系推定规则,以解决被侵权人证明因果关系的困难。16
笔者认为,对包括生成式人工智能在内的人工智能的侵权责任适用因果关系推定规则并不妥当。从我国现行法来看,明确适用因果关系推定的侵权责任主要就是环境污染和生态破坏责任(《民法典》第1230条)以及证券市场虚假陈述侵权责任[《最高人民法院关于审理证券市场虚假陈述侵权民事赔偿案件的若干规定》(法释〔2022〕2号)第11条]。这两类侵权责任之所以采取因果关系推定是有一定的理论支撑的。环境污染和生态破坏责任之所以实行因果关系推定是因为,环境污染和生态损害的侵权行为往往具有长期性、潜伏性、持续性和广泛性,且因造成损害的过程与原因复杂众多,需要依据专业知识以及仪器设备方能确认因果关系,受害人很难对其中的因果关系负担证明责任,因此为了减轻环境侵权受害人的举证负担,更迅速地救济受害人,立法者决定采取因果关系推定的方法。17证券市场虚假陈述侵权责任中的因果关系推定规则是建立在欺诈市场理论的基础之上的。该理论是在经济学有效市场假说的基础上发展出来的,其确立了一个可反驳的推定,即虚假陈述行为使得市场受到了欺诈,市场被欺诈即可推定投资者受到了欺诈,除非能够证明投资者并未受到欺诈。18然而,人工智能技术非一个固定不变的实体,而是涵盖了一系列庞大、异质且不断发展的应用。只要一个系统或设备能够在特定的环境中行动、适应并从经验中学习以实现预定的目的,就可以说该系统或设备属于人工智能系统或人工智能产品。某一系统或设备是否属于人工智能,受到其所使用的环境以及被设定实现的目标等两个因素的影响。在一种环境或目标下被视为人工智能的系统或设备,在另一种环境和目标下可能被认为不属于人工智能。19因此,决不能笼统地加以看待,更不能认为所有的人工智能都如同环境污染和生态破坏行为那样具有固有的危险性、持续性与广泛性。就生成式人工智能而言,其核心特征在于自主生成新的信息或内容,并不直接实施针对民事主体的物理上的行为,很难认为其对人身财产安全存在高度的危险。事实上,即便在产品责任、高度危险责任中,我国现行法律也没有采取因果关系推定。就证明产品的缺陷、高度危险行为与损害之间的因果关系而言,受害人同样面临着证明上的困难,但无论是我国法还是国外立法也并未因此而统一适用因果关系推定规则,何以人工智能侵权责任需要特殊对待?如果人工智能的自主性与不透明性使得被侵权人难以证明因果关系,人工智能服务提供者、人工智能产品的生产者等也面临同样的困难。一律适用因果关系的推定(再配合一些学者提出的无过错责任),很容易将人工智能侵权责任变成结果责任,明显不利于人工智能技术的创新与发展。因此,对于包括生成式人工智能在内的人工智能的侵权责任,立法上不应当采取因果关系推定规则,司法实践中法官更不能任意加以适用,而是仍然应当按照现有的证明责任分配规则,由受害人加以证明。法院应当依据现行法的规定和因果关系的相关理论予以认定。
三、侵权法上责任成立与责任范围因果关系的区分
侵权法上的因果关系理论是一种责任理论,解决的是可归因的损害赔偿问题。因为一个人对某一损害的责任只能建立在这个人与该损害之间存在联系的基础上。20因果关系的功能在于:过滤无关原因而令行为人为且仅为自己的行为负责,同时合理截取因果关系链条,控制责任范围以维护行为自由。21因此,对因果关系的判断不仅是自然科学意义上因果关联的查明,更是法律规范意义上的价值评判。正因如此,两大法系中因果关系的判断都被区分为两个层次。在普通法系的侵权法中,因果关系被分为事实因果关系(factualcausation)与法律因果关系(proximate/legalcausation)。被告的行为与原告的损害之间事实上的联系属于事实因果关系,而判定损害是否遥远(remoteness)以至于被告不应承担赔偿责任则是法律因果关系解决的问题。22在事实因果关系的认定阶段,不论损害的发生是否仍有其他原因,只要被告行为促成了损害的发生就认定为具有事实因果关系。法律因果关系考量的是有无被告的行为或可归责于被告的某人的行为或被告必须加以控制的物件之外的其他因素之介入,以至于原告所受的损害与该等行为或物件的关系过于遥远而使得被告免除或减轻赔偿责任。对于事实因果关系采取的是“Butfor规则”加以认定,即假设被告的行为如果不存在,原告的损害是否仍然会发生。原告必须通过概率上的优势来证明事实联系的存在,即被告行为造成损害发生的概率在50%以上。23就法律因果关系的判断,普通法曾经采取直接后果说(directconsequences),后来改采合理预见说(reasonableforeseeability)。依据合理预见说,行为人只需要对其事先能够合理预见到的损害后果负责,而不是对于其行为所造成的任何损害后果负责。只要受害人所受损害的类型在合理可预见范围内,则损害以不可预见的方式发生以及损害的程度超出可预见范围,均不影响责任的认定。24
在德国法上,因果关系被分为责任成立的因果关系(haftungsbegründendeKausalität)与责任范围的因果关系(haftungsausfüllendeKausalität)。前者涉及的是加害人的行为与特定后果尤其是法益侵害的发生之间的因果关系,后者则是以侵害后果与损害之间的联系为前提。这一区分主要是针对《德国民法典》第823条第1款进行的,25责任成立的因果关系在该款中属于构成要件侧(“任何人……不法侵害”),责任范围的因果关系属于法律效果侧(“由此产生的损害”)。26对于责任成立的因果关系,德国法上采取的是“条件说+相当性理论”。条件说(Bedingungstheorie)也称“等值理论”(Äquivalenztheorie),可以概括为“无此条件则无此结果”的公式,其判断方法与英美法上的“Butfor规则”相同。由于条件说仅仅解决了自然科学意义上的因果关系,不足以对侵权赔偿责任进行适当的限制。故此,为了恰当地控制侵权责任的范围,有必要通过价值评价的归责标准加以补充,27相当性理论(Adäquanztheorie)就是此种归责标准。依据该理论,如果“一项作为或不作为在一般的情况下,而非仅在特别奇特、完全不可能,且按事物通常发展过程应不予考虑的情况下,适于导致已发生的结果”,则存在相当因果关系。28认定相当性时,判断者必须设身处地回到责任成立事件发生的时点,不仅需考虑当时案涉行为人已经知道的情况,还需考虑当时一位最佳的或最理想的观察者能够认识到的或根据生活经验而必须预见到的情况。29对特定因果关系过程的可预见性既不取决于加害人的主观预测,也不取决于加害人所属的交往圈子中的普通成员的判断,因为所有这些在德国法中都是过错这一要件需要考虑的问题。30由于相当性理论存在适用上的任意性等弊端,31不足以实现对因果关系的规范性限制,故此,德国法学界还提出了法规保护目的说(SchtzzweckderNorm)。该说认为,因侵权行为所生之赔偿责任须就侵权法规范的意义与目的加以探究,尤其要探讨该法规究竟要保护何种利益,即相关法规之意义与目的。换言之,应当以交往安全义务(Verkehrspflicht)或者保护性法律(Schutzgesetz)的意义和目的作为判断因果关系的标准。32法规保护目的说的核心问题在于:若某项损害在合法行为下本不会发生,但该损害恰恰不在被违反规范的保护范围之内,则是否仍应予以赔偿。其基本思想是:每一项义务与规范均涵盖特定的利益范围,行为人仅对侵害该受保护的利益范围的行为承担责任。因此,责任成立的前提始终是:损害必须处于受保护的利益范畴之内。33就责任范围的因果关系,德国法上的主流归责理论也是采取条件说加相当性理论或法规保护目的说予以判断。34
我国《民法典》第1165条第1款规定:“行为人因过错侵害他人民事权益造成损害的,应当承担侵权责任。”从这一规定可知,我国侵权法上的因果关系也是分为两个层次,第一层次是行为与民事权益被侵害之间存在的因果关系,即侵权责任成立的因果关系;第二层次是民事权益被侵害与损害之间存在的因果关系,即侵权责任范围的因果关系。35目前,我国侵权法上用于判断这两个层次因果关系的主要理论就是“条件说+相当性理论”,36学说上将它们归纳为“无此行为,虽必不生此损害,有此行为,通常即足生此种损害者,是为有因果关系。无此行为,必不生此种损害,有此行为,通常亦不生此种损害者,即无因果关系”。37最高人民法院公报刊登的一则判决指出:“侵权法意义上的因果关系的成立,应同时具备以下两项要件:其一,若无此行为,即不会产生损害;其二,依社会通念判断,若有此行为,则通常均会产生此种损害后果。”38
四、生成式人工智能侵权责任中责任成立因果关系的判断
按照“条件说+相当性理论”,在责任成立的因果关系阶段,首先就是依据条件说,判断提供者的行为是否属于权益被侵害的必要条件;其次确定该行为与权益被侵害之间具有相当性,即该行为是否通常足以造成权益被侵害的结果。就生成式人工智能侵权责任而言,在模型训练阶段发生的侵权纠纷中,比较容易认定责任成立的因果关系。因为没有经过权利人许可或具有法律规定的合理使用情形擅自使用他人的作品、数据进行模型训练的行为就是人工智能研发者自身的行为。该行为可能是作为,也可能是不作为,前者如从盗版网站上下载侵权作品进行模型训练,后者如未对个人数据进行匿名化处理即用于训练模型。这些行为是他人著作权、个人信息权益、数据权益等民事权益被侵害的条件,且没有这些行为,通常不会产生权益被侵害的后果,研发者的行为与民事权益被侵害之间存在因果关系。有疑问的是,在内容输出阶段,如何认定生成式人工智能提供者的行为以及该行为与民事权益被侵害的因果关系?
(一)内容生成是生成式人工智能服务提供者的行为
生成式人工智能具有两个显著的特点:一是自主性,即生成式人工智能能够借助互联网与物联网,依靠强大的算力从海量的数据中不断习得规律,并模拟和实现人类的学习行为,从而自主地生成、创造或生产出全新的内容或信息;二是人机交互性,即人类用户与生成式人工智能系统之间进行的是双向、动态、有意义的交流与合作。生成式人工智能需要根据用户输入的指令而生成内容,但并非简单的指令与反馈,而是能够在理解人类用户的意图、适应其个性化需求的基础上于互动中持续学习与演化,形成一种协作式智能。这样一来就产生了一个问题,即内容的生成究竟是人工智能系统本身自主实施的行为还是服务提供者的行为抑或用户的行为?目前,理论界有少数观点主张赋予人工智能系统以法律人格,39如2017年欧洲议会通过的《欧洲机器人技术民事法律规则》第59条(f)认为:“从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格。”依据这种观点,生成式人工智能生成的内容不是人工智能服务提供者(如人工智能公司)的行为或言论,甚至根本就不是人类的行为,而是人工智能本身的行为。40然而,现阶段无论是赋予人工智能以伦理性人格抑或技术性人格,都是不可行的。41首先,虽然生成式人工智能具有一定自主性,但当下的生成式人工智能还远未如自然人那样具有完全独立、自主的思维和意志。侵权法上的“责任意味着将事件归责为人的意志。而一个人的意志一般会表现在其行为中。行为由此构成了责任的起因(Urgrund),并成为一般性的事实构成要素”。42因此,所谓行为是指受人类意志支配而表现出来的活动。43生成式人工智能既非生理学意义上的自然人,也非法律赋予了其拟制人格的法人或非法人组织,不是民事主体,没有民事权利能力与民事行为能力。包括侵权责任在内的民事责任的承担都以责任人具有独立的财产为前提,生成式人工智能没有自己的独立财产,无法独立承担民事责任,最终责任仍然要由生成式人工智能服务提供者或者其他的相关民事主体来承担。正因如此,杭州互联网法院的一则判决就明确指出:“DeepSeek人工智能模型既不是生物学意义上的人,也并未被我国现行法律赋予民事主体资格,故此不是民事主体,不具有民事权利能力、行为能力和责任能力。”44因此,内容的生成不可能是生成式人工智能本身的行为。其次,生成式人工智能的人机交互性意味着用户输入侵权指令等行为与民事权益被侵害也可能有因果关系,该用户本身无法完全被排除承担侵权责任,但却不能据此就将内容的生成完全视为用户的行为。虽然用户输入的指令影响输出的内容,且其与人工智能之间存在个性化的互动关系,但并非可以完全地、唯一性地决定内容的生成。在技术上,生成式人工智能输出的行为仍然是由模型、算法和训练数据所内在地、本质性地加以控制的,而这些都是由提供者(确切地说是研发者)所掌控的。因此,生成式人工智能输出内容这一行为的归属应当着眼于提供者,在法律上被认定为提供者的行为。当然,考虑到生成式人工智能的人机交互性以及被他人作为工具加以利用而实施侵权行为的可能性,因此,需要在每一个案件中具体审查那些据称是由生成式人工智能“实施”的民事权益侵害行为能否以及多大程度上归属于提供者。45
(二)生成式人工智能服务提供者的行为包括作为与不作为
侵权法上的行为可以分为作为与不作为。作为是指行为人积极的举止动作,即有所为。对于作为,外界通常能够加以识别,如殴打他人、发表污蔑他人的文章、未经许可使用他人的肖像做广告、偷窃他人的财物、损坏汽车、纵火焚毁房屋等。不作为,是指不做某件事情,从外界表现来看,行为人乃是处于消极的静止状态,什么也没干(Etwasnichttun)。之所以不作为也会被认定为加害行为,根本原因在于行为人违反了作为的义务。倘无作为的义务,行为人有所不为,则不可能属于侵害行为。就生成式人工智能侵权责任,有观点认为,加害行为只能是提供生成内容的“作为”,理由在于:确保数据来源合法、算法符合伦理要求乃至对生成的内容进行过滤审查等义务虽然是法定义务,但性质上属于公法上的义务,而非私法或者说侵权法上的作为义务,违反公法上的作为义务难谓构成侵权法上的不作为。此外,提供者也不负有对生成内容的一般性审查义务。46
笔者认为,上述观点难以成立。首先,在侵权法中,作为义务的来源非常广泛,不限于法定的作为义务,还包括其他作为义务的来源,如合同的约定、在先行为、基于诚信原则的信赖关系等。47因此,从法定义务出发来认定提供者是否存在不作为,显然过于狭隘。例如,在生成式人工智能中有联网搜索的功能选项,而按照人工智能服务提供者的服务协议,在用户打开该功能时,那么按照协议的约定,提供者就应当提供联网搜索的服务;如果提供者没有提供而直接输出生成内容,则该行为就是不作为。其次,法定作为义务之违反是否产生侵权责任并不取决于该义务是由公法还是私法规定的,决定性标准在于原告是否属于该义务所旨在保护的对象且原告民事权益被侵害是否为该义务旨在避免的结果。这也是普通法系和大陆法系共同认可的标准,故此普通法系中有所谓“违反成文法注意义务的侵权行为”(Breachofstatutoryduty),48而德国法上有“违反保护性法律”(DieVeletzungvonSchutzgesetzen)的侵权行为(《德国民法典》第823条第2款)。49我国侵权法学界通说认为,在公法的管制性规范中防止侵害型规范是以保护他人利益为目的,对侵权行为法具有直接意义,违反公法上义务也可导致侵权责任。50就生成式人工智能服务提供者而言,《生成式人工智能服务管理暂行办法》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等部门规章给其施加了诸多法定作为义务,其中,有一部分作为义务就以保护民事主体的特定民事权益免受侵害的结果为目的。例如,《生成式人工智能服务管理暂行办法》第4条第4、5项明确要求提供者“尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益”,“基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性”。此外,该办法第14条第1款还规定:“提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。”显然,上述法定作为义务的违反将会构成提供者的不作为侵权责任。最后,不能孤立地、割裂地看待内容的生成这一行为,而是要从生成式人工智能的技术特点进行整体的观察。如果采取这个视角就可以看到,虽然内容的生成是一个作为,但除非人工智能系统本身具有内在的侵害性(如算法偏见等),否则,提供者可被归责的行为实际上有相当一部分是不作为,即因其违反了作为义务而使得生成式人工智能自主生成了侵害他人民事权益的内容。例如,提供者在开展预训练、优化训练等训练数据处理活动中,没有采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性,结果导致生成了虚假错误的内容。51再如,提供者在发现使用者利用生成式人工智能服务从事违法活动时,没有依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施。由此可见,虽然在输出阶段,提供者对输出内容不负有一般性审查义务,但这不意味着在生成阶段之前的模型训练阶段不负有积极作为的义务。因此,生成式人工智能侵权责任中,提供者的行为既包括作为,也包括不作为。
(三)提供者的行为与民事权益被侵害的因果关系的判断标准
将相当性理论运用到生成式人工智能服务侵权责任中,就意味着只要生成的内容侵害他人民事权益的后果是可以被合理预见的,那么生成式人工智能服务提供者的行为就与民事权益被侵害之间存在责任成立的因果关系。如果提供者的行为对于民事权益被侵害的结果的发生概率不会产生影响或者只是在某些极端特殊的情形之下才成为该结果发生的条件,52那么,该行为就不是原告的民事权益被侵害的充分原因即缺乏相当性,责任成立的因果关系不满足。如果是在模型训练阶段,运用上述理论判断,没有太大的问题。因为,未经许可使用他人享有著作权、个人信息权益、数据权益的作品、数据等进行模型训练时,生成式人工智能服务的提供者完全是可以合理地预见该行为会发生侵害他人民事权益的后果的。但是,在输出阶段,由于生成式人工智能所具有的自主性以及目前技术尚无法完全解决的模型幻觉,简单地运用相当性理论或合理预见说加以判断,可能会出现两种结果:要么过度强调生成式人工智能的自主性与模型幻觉等无法完全克服的技术困难,认定提供者不能合理预见权益侵害的后果;要么完全不考虑自主性和模型幻觉等因素对提供者提出超越现有技术能力或水平的要求,认为提供者要对无法控制的内容输出都加以预见。前一个结果不利于保护民事主体的合法权益,后一个结果有害于人工智能技术的发展与创新。因此,有的观点认为,应当区分被侵害的民事权益的类型,对于人格权进行倾斜保护,不考虑人工智能的自主性,要求提供者对无法预测和控制的生成内容侵权负绝对的责任;至于知识产权和财产性权益,则考虑人工智能的自主性等因素。53
笔者认为,单纯地区分民事权益而确立不同的责任成立因果关系(以及责任范围因果关系)的判断标准,不具有充分的正当性,也不符合生成式人工智能的特点。一方面,生成式人工智能作为通用型人工智能,能够自主生成文字、图片、音频、视频、代码等内容,其被应用的场景日益多元广泛,可能涉及的民事权益也不限于名誉权等人格权,还包括知识产权、数据权益等无形财产权,此外,在用户与第三人行为介入的情况下,还会涉及生命权、身体权、健康权、物权等其他民事权益的侵害。因此,很难简单地从被侵害权益类型出发就认定提供者对于民事权益侵害的结果是可以合理预见或无法合理预见的。另一方面,虽然生成式人工智能具有自主性且目前还存在技术难以消除的模型幻觉等问题,但从生成式人工智能的技术逻辑出发可以发现,生成内容如何、是否会发生侵害民事权益的结果,提供者绝非完全无能为力。从技术上来说,至少在模型训练和优化完善的阶段,提供者是可以通过确保训练数据的质量,基于人类反馈的强化学习技术,优化完善模型和算法,采取安全防护等措施,从而在相当程度上预防和避免生成内容侵害民事权益的结果发生的。正因如此,《生成式人工智能服务管理暂行办法》等规章才对提供者施加了相应的作为义务,要求其基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性;在生成式人工智能技术研发过程中进行数据标注时应制定符合要求的清晰、具体、可操作的标注规则;开展数据标注质量评估,抽样核验标注内容的准确性;按照规定,对图片、视频等生成内容进行标识;发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改;发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施。如果提供者依据法律、法规和规章的规定履行了相应的义务后,生成式人工智能基于自主性和模型幻觉(以及第三人行为)等外在原因而生成侵害他人权益的内容的,该结果也可以认定为不能合理预见的。
故此,为了能够科学协调民事权益的保护与鼓励人工智能技术创新发展的关系,在认定提供者对于民事权益被侵害的结果是否能够合理预见时,有必要区分两种情形:一种情形是,生成式人工智能的模型或算法存在侵权危险性或者说内含了侵害他人民事权益的风险,即侵权危险被内置于生成式人工智能系统的目标功能或任务设定之中。54例如,人工智能就是为了文字作品的自动配音而开发的,或者为了从合法公开的个人信息中刺探他人私密信息或敏感的个人信息而开发算法模型等。此时,生成式人工智能服务提供者对于输出或生成的内容会产生侵害他人个人信息权益、著作权等民事权益的可能性完全能够合理预见,人工智能的自主性或模型幻觉并未影响提供者的合理预见可能。另一种情形是,不存在上述内在侵权危险的情形,此时,应当以提供者是否履行以保护民事权益为目的的法定的、约定的或者基于其他来源(如在先行为、诚信原则)而产生的作为义务作为认定因果关系的标准。只要履行了这些义务,那么即便输出的内容(因为人工智能的自主性、模型幻觉抑或其他原因)客观上侵害了他人的民事权益,仍应认为该侵害后果的发生是提供者不能合理预见的。
五、生成式人工智能侵权责任中责任范围因果关系的判断
如前所述,责任范围的因果关系旨在确定的是民事权益被侵害与损害之间的因果关系。由于侵害的民事权益不同所造成的损害也有所区别,因此,在认定生成式人工智能服务侵权责任中的责任范围的因果关系时,应当进行类型化分析。
(一)生成式人工智能造成人身伤亡的责任范围因果关系
无论是依据德国法还是普通法系的因果关系理论,当原告被侵害的人身权益是生命权、身体权和健康权以及物权等有形财产权时,只要造成的损害的种类能被合理地预见即成立责任范围的因果关系或法律因果关系。至于被告是否能合理预见该损害的范围、程度或其发生的方式,无关紧要。特别是在人身伤害领域,普通法系和大陆法系都明确确立了这样一项规则:被告必须“接受原告的现状”(TaketheClaimantasHeFoundHim),即著名的“蛋壳脑袋规则”(theEgg-ShellSkullRule)。它意味着受害人可就其人身所受的全部损害获得赔偿,即使因其某种特殊的身体敏感性导致了他所受损害的程度超出了普通人的损害,也不例外。因此,血友病患者或极度神经质者若遭受加害行为受到比常人更严重的损害,即便被告根本无法预见如此大的损害,受害人仍可获全额赔偿。55在我国,最高人民法院第20号指导案例“荣某英诉王某、永诚财产保险股份有限公司江阴支公司机动车交通事故责任纠纷案”也采取了这项规则,该案判决认为:“交通事故的受害人没有过错,其体质状况对损害后果的影响不属于可以减轻侵权人责任的法定情形。”之所以在人身损害中责任范围的因果关系更容易成立,主要是考虑到人身安全处于更高的法律位阶,更值得获得全面、充分的保护。
就生成式人工智能服务而言,通常其输出的内容本身不会直接侵害生命权、身体权和健康权,而必须结合用户自身的行为或者第三人实施的行为,才会发生人身伤亡的后果。例如,2025年9月,美国科罗拉多州的13岁少女朱莉安娜·佩拉尔塔的家人以及纽约的一位名为“尼娜”的女孩的家人分别针对开发ChatGPT的人工智能公司OpenAI提起侵权赔偿诉讼,称该公司开发的ChatGPT持续传递错觉,教唆他们的孩子自杀。56显然,受害人的死亡必须是由其自杀行为所直接导致的。如果认定了输出内容与受害人的生命权、身体权或健康权被侵害的结果之间存在因果关系,即满足了责任成立因果关系的要求,那么接下来认定责任范围的因果关系,在我国法上就不是太大的问题。因为我国法上对于人身伤亡的损害赔偿类型、范围与计算方法作出了明确的规定。依据《民法典》第1179条的规定,人身伤亡的损害包括财产损害与精神损害。其中,财产损害的范围被法定化为:医疗费、护理费、交通费、营养费、住院伙食补助费等为治疗和康复支出的合理费用,以及因误工减少的收入。造成残疾的,还应当赔偿辅助器具费和残疾赔偿金;造成死亡的,还应当赔偿丧葬费和死亡赔偿金。至于这些人身伤亡的财产损害如何具体加以计算,《最高人民法院关于审理人身损害赔偿案件适用法律若干问题的解释》(法释〔2022〕14号)有明确的规定。至于精神损害,依据《民法典》第1183条第1款,必须是造成严重精神损害的,被侵权人才有权请求精神损害赔偿。精神损害赔偿数额的确定方法,可以依据《最高人民法院关于确定民事侵权精神损害赔偿责任若干问题的解释》(法释〔2020〕17号)第5条列举的各项因素确定。
(二)生成式人工智能侵害其他人身权益的责任范围因果关系
所谓其他人身权益是指排除生命权、身体权和健康权这三项人格权之外的人格权益和身份权益,如姓名权、名称权、肖像权、名誉权、荣誉权、隐私权、个人信息权益等具体人格权与一般人格权,以及监护权、配偶权等身份权益。生成式人工智能服务提供者在模型训练阶段可能会侵害个人信息权益、隐私权,而在输出内容阶段可能会侵害名誉权、肖像权、个人信息权益、隐私权等。对于侵害其他人身权益与损害的责任范围因果关系,虽然我国法上没有如人身伤亡的财产损害那样作出列举,但是也较容易确定。一方面,《民法典》第1182条明确规定:“侵害他人人身权益造成财产损失的,按照被侵权人因此受到的损失或者侵权人因此获得的利益赔偿;被侵权人因此受到的损失以及侵权人因此获得的利益难以确定,被侵权人和侵权人就赔偿数额协商不一致,向人民法院提起诉讼的,由人民法院根据实际情况确定赔偿数额。”此外,由于生成式人工智能服务也属于一种网络服务,因此,也可以适用《最高人民法院关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》(法释〔2020〕17号),该司法解释第12条规定:“被侵权人为制止侵权行为所支付的合理开支,可以认定为民法典第一千一百八十二条规定的财产损失。合理开支包括被侵权人或者委托代理人对侵权行为进行调查、取证的合理费用。人民法院根据当事人的请求和具体案情,可以将符合国家有关部门规定的律师费用计算在赔偿范围内。被侵权人因人身权益受侵害造成的财产损失以及侵权人因此获得的利益难以确定的,人民法院可以根据具体案情在50万元以下的范围内确定赔偿数额。”另一方面,就精神损害赔偿,则适用《民法典》第1183条第1款以及《最高人民法院关于确定民事侵权精神损害赔偿责任若干问题的解释》的规定。
(三)生成式人工智能侵害财产权的责任范围因果关系
生成式人工智能输出的内容一般不会侵害物权等有形财产权,但是在模型训练阶段与生成阶段完全是有可能侵害著作权、数据权益等其他无形财产权的。就侵害这些财产权所造成的损害,依据“条件说+相当性理论”比较容易确定,只要行为人能够合理预见到损害的种类即财产损害即可,无须预见造成损害的方式以及损害的范围、具体数额。在确定具体赔偿数额时,应当依据《著作权法》《反不正当竞争法》等法律和相关司法解释的规定。依据我国《民法典》第1183条的规定,除非行为人因故意、重大过失侵害自然人具有人身意义的特定物,否则侵害财产权不会产生精神损害赔偿责任。
(四)生成式人工智能造成纯粹经济损失时的因果关系
在加害人的行为侵害受害人的人身权利或财产权利而造成经济损失(财产损害)时,该经济损失要么是因为受害人的人身权利或财产权利受侵害而直接造成的,如损坏他人的物,物的毁损灭失就是直接损害,由此造成的财产损失亦属于直接损害,如物的修理费用或重置费用,人身伤害时的住院费、治疗费等;因为该物被毁损引发的其他损害,如物丧失使用的损失、人身伤害时的误工损失,则属于间接损害。无论是直接损害还是间接损害,都是与人身权利或财产权利受侵害有直接或间接关联的经济损失。然而,纯粹经济损失(pureeconomicloss/reinesVermögenschaden)是受害人因纯粹经济利益的丧失而遭受的损害,其与受害人的人身权利或财产权利被侵害既无关联,亦非其受侵害之结果的经济利益的丧失。在受害人仅遭受纯粹经济损失的情形中,被侵害的对象是纯粹经济利益,损失本身也就是纯粹经济利益的丧失,因此,无须再区分责任成立的与责任范围的因果关系,只要考察加害人的行为与纯粹经济损失之间有无因果关系即可。
生成式人工智能的核心特点在于自主创造生成新的信息或内容,因此,很容易因该内容或信息的虚假或错误引发纯粹经济损失。例如,在杭州互联网法院审理的“生成式人工智能输出错误信息侵权案”中,原告所主张的其因受被告输出的错误信息的误导而错失报考机会的财产损失,性质上就属于纯粹经济损失。然而,由于生成式人工智能输出的内容并不会构成物理上的直接动作或行为,因此除非提供者故意输出虚假或错误的内容对他人实施欺诈(此种情形很罕见),否则,在提供者存在过失时,生成式人工智能输出的错误信息或内容必须得到作为受害人的用户或第三人的信赖且据此采取了后续行为后,才能造成纯粹经济损失。例如,用户就其正在进行的合同纠纷案件中的法律问题咨询生成式人工智能,但生成的是错误信息,用户或第三人据此决定其诉讼策略,并导致了败诉的结果。显然,从输出内容的错误到损失这一因果链条的延伸中介入了受害人的信赖及基于信赖而采取的行动,输出内容的错误并非受害人损失的直接原因。因此,为了防止出现提供者在不确定的时间向不确定的人承担不确定赔偿责任的情形,需要通过因果关系限制提供者的赔偿范围,此时,需要考察的是受害人对生成的内容是否存在合理的信赖。在受害人的信任是合理的情况下,存在因果关系;反之,则不存在因果关系。在认定受害人的信赖是否合理时,需要综合考虑以下因素。
1.提供者是否尽到相应的提示或警示义务。出于技术尚无法完全解决的原因,生成式人工智能的模型幻觉问题仍然无法消除,因此,提供者应当能够认识到人工智能输出的内容并不完全真实准确,甚至可能是纯属虚构的。因此,目前的人工智能公司都会在其页面提示以及用户协议中对于其输出内容可能不真实、不准确等风险向用户加以提示或警示。这些提示或警示中,有些是一般性的,如ChatGPT会提示“ChatGPT也可能会犯错。请核查重要信息”。DeepSeek等国内的生成式人工智能会提示“内容由AI生成,仅供参考,请仔细甄别”。有些可能是相对具体的,尤其是在用户协议中的提示或说明。例如,《DeepSeek用户协议》第5.1条约定:“本服务提供的所有输出均由人工智能模型答复,不构成深度求索在法律上的意思表示;其可能出现错误或遗漏,仅供您参考,您不应将输出的内容作为专业建议。特别的,当您在使用本服务咨询医疗、法律、金融及其他专业问题时,请注意本服务不构成任何建议或承诺,不代表任何专业领域的意见。若您需要相关专业服务,应咨询专业人士,并在专业人士的指导下作出决策。本软件的输出不应成为您进一步作为或不作为的依据。您根据输出的内容所作出的任何判断或者据此作出的后续相关操作行为,所带来的后果和责任均由您自行承担,包括因对输出的内容的真实性、准确性、可靠性、不侵权或满足特定目的的依赖而产生的风险。您应科学理性认识和依法使用生成式人工智能技术。”57生成式人工智能服务提供者关于输出内容是AI生成的、可能犯错或仅供参考之类的一般性提示,并不据此降低用户的信任或受引导的可能性,从而推导出用户的具体注意义务。58但是,前述《DeepSeek用户协议》第5.1条中关于其对医疗、法律、金融及其他专业问题的答复不构成任何建议或承诺,不代表任何专业领域的意见的提示,则可以降低用户的信任度和受引导可能。
2.内容来源的可信度。这是《民法典》第1206条第1项确立的认定合理核实义务的考虑因素之一,但也可以用来认定受害人对生成内容的信赖合理与否。目前,生成式人工智能都附有深度思考和联网搜索功能,这从技术上有利于保证输出内容真实、准确的功能。从技术上,深度思考能够增强逻辑推理能力,而联网搜索可以增强所获取的外部知识,二者都能显著地提升生成式人工智能(尤其是大语言模型)输出内容的真实准确性。正因如此,生成式人工智能服务提供者也会向用户推荐这些功能,例如,《DeepSeek用户协议》第5.2条就明确指出:“您打开产品的‘联网搜索’功能时,或将在一定程度上提升输出生成内容的准确性和时效性。”因此,在开启了深度思考或联网搜索功能后,应当认为受害人对生成内容的信赖比没有开启该项功能时更为合理。
3.受害人的核实能力与核实成本。我国《民法典》第1026条第6项明确将核实能力和核实成本作为认定是否尽到合理核实义务的考虑因素。这就意味着,如果受害人是具有相应专业知识的人员,其有能力判断内容的虚假或错误与否,那么,就其专业领域的知识范围内,对于生成内容应当保持超出非专业人士的谨慎程度,而不能一味地信赖生成的内容。59当受害人在可以采用较小的成本进行核查时,如只需要简单地通过网页的检索或者电话咨询就能发现信息的准确或真实与否时,则受害人对于输出内容就不应当过分信赖。
六、生成式人工智能侵权责任中的介入原因
侵权法上的“介入原因”(interveningcauses)也称“介入行为”(interveningacts),包括了受害人的行为、第三人的行为以及自然事件等,60这些介入原因可能中断因果关系,也可能不中断。在生成式人工智能侵权责任中,介入原因主要有两类,即受害人的行为与第三人的行为,下面分别加以讨论。
(一)受害人的行为
受害人自身的行为包括受害人故意以及受害人的与有过失。受害人故意,是指受害人明知自己的行为会给自己造成损害而追求或放任该损害的发生,即受害人故意给自己造成损害。《民法典》第1174条规定:“损害是因受害人故意造成的,行为人不承担责任。”该条中的“因受害人故意造成的”就是指损害完全是因为受害人的故意造成的,即受害人故意的行为是其损害发生的唯一原因。61在受害人故意的情形下,行为人的行为与权益被侵害之间不存在因果关系,因此,侵权责任不成立,行为人得以免责,故此,受害人故意属于免责事由的一种。受害人的与有过失,也称过失相抵,是指被侵权人对同一损害的发生或者扩大存在过错(包括故意或过失)。受害人的与有过失只是中断权益被侵害与某些损害之间的责任范围的因果关系,故此,依据《民法典》第1173条,可以减轻侵权人的责任。
在生成式人工智能服务的侵权责任中,受害人故意往往体现在受害人已经明知输出内容是虚假的或错误的,而仍然按照该内容采取行为。例如,某用户咨询生成式人工智能对于民事案件一审判决的上诉期间是多长,输出的答案是60天,但是该用户通过查找《民事诉讼法》已经知道了这个答案是错误的,却仍然在一审判决作出后一个月才提出上诉。显然,用户的行为属于受害人故意。在杭州互联网法院审理的“生成式人工智能输出错误信息侵权案”中,原告梁某在向DeepSeek询问云南职业高校报考相关信息时,虽然DeepSeek生成了该校校区位于杨林的错误信息,但是,梁某已经通过查询该校官网知悉了该校是在呈贡而非杨林,并且其在后续几轮与DeepSeek的对话中还向DeepSeek作出纠正。62显然,如果在这种情况下梁某还是依据输出的错误内容作出决策并放弃报考机会,其故意的行为中断了因果关系。
生成式人工智能侵权责任中,受害人与有过失的情形也可能出现。例如,用户因身体不舒服而咨询生成式人工智能,该输出的内容不准确,而用户在已经发现身体状况恶化的情况下,仍然拖延不去医院就诊,这种情况下,即便认定提供者的行为与用户的健康权被侵害存在责任成立的因果关系,但对于用户自己拖延治疗而导致的损害扩大的部分,也因用户的与有过失而中断因果关系,提供者可以主张减轻侵权责任。
(二)第三人的行为
第三人是行为人与被侵权人之外的人,第三人的行为是指行为人的行为发生之后介入行为人的行为与权益被侵害或者权益被侵害与损害的因果关系之中的。由于第三人行为产生的法律后果各不相同,既包括因中断因果关系而使得行为人免责,由第三人承担全部责任;也包括第三人与行为人作为共同侵权人承担连带责任(《民法典》第1168—1170条),或者作为无意思联络的数人侵权承担连带责任、按份责任或部分的连带责任(《民法典》第1171—1172条)。故此,我国《民法典》第1175条才笼统地规定:“损害是因第三人造成的,第三人应当承担侵权责任。”鉴于第三人行为的法律效果存在很大的差异,故此,在生成式人工智能侵权纠纷中,也应当进行类型化的分析。
1.第三人利用生成式人工智能实施侵权行为的情形,即第三人通过输入侵害他人民事权益的指令而诱使生成式人工智能输出侵权内容。例如,在北京互联网法院审理的“利用AI软件丑化恶搞他人肖像侵权案”中,被告孙某利用生成式人工智能将原告程某用作微信头像的肖像照创作生成为乳房暴露的动漫风格图片,并将该等照片发送至与原告同在的摄影交流微信群内。在原告多次制止后,被告仍继续使用人工智能软件将原告的上述微信头像的肖像照片生成为乳房暴露且身体畸形的动漫风格图片并一对一发送给原告。显然,该案中的被告孙某相对于原告和人工智能服务提供者而言是第三人。由于本案原告只是起诉了孙某,没有起诉人工智能服务提供者,因此,法院认为:“涉案AI软件是一种AI工具,被告是该工具的使用者,被诉侵权图片是被告自主决定生成,并在涉案微信群中发布。”63但是,在这种情形下,不能简单地就认为生成式人工智能只是一种工具。当受害人将第三人和提供者作为共同被告起诉的情况下,法院仍需要判断提供者的行为与原告的名誉权被侵害之间是否存在因果关系。虽然客观上生成的内容是侵权内容且该侵权内容是在第三人的诱导下生成的,但不能仅以生成内容是侵权内容这一结果而直接认定提供者实施了侵害民事权益的行为,而需要判断提供者在该侵权内容输出之前是否履行了相应的预防和制止此类侵权内容生成的法定作为义务或基于其他来源的作为义务。如果履行了,则提供者不存在不作为,其生成的侵权内容虽然客观上是权益被侵害的条件,但是不存在相当性,应当由第三人承担侵权责任。64如果提供者没有履行该等作为义务,则其构成不作为,与民事权益被侵害存在因果关系。此时,提供者的不作为与第三人作为构成结合的因果关系,适用《民法典》第1172条规定的无意思联络数人侵权。由此可见,第三人利用生成式人工智能实施的侵权行为本身并不当然排除或中断提供者的行为与权益被侵害之间的因果关系。
2.第三人传播、转载或向他人提供生成式人工智能输出内容的情形,这是指第三人没有输入侵权指令或实施诱导侵权行为,而生成式人工智能因为数据训练偏差、模型缺陷、模型幻觉等原因生成了虚假、错误等内容,获得该信息的第三人将其加以传播或转载,或提供给他人使用,从而发生了侵害了民事权益的后果。这种情形下,虚假内容本身已经构成了对他人民事权益的侵害行为,而第三人的传播、转载的行为往往是造成损害后果的扩大,因此,就扩大的部分,第三人的行为中断了责任范围的因果关系,提供者对该部分不承担侵权责任。例如,生成的内容泄露了他人隐私,那么提供者要承担侵害隐私权的责任,其生成包含他人隐私的行为与隐私权被侵害存在因果关系,但是第三人故意或过失扩散该包含隐私的内容的,其要就扩大的损害承担责任,提供者对于该扩大的损害不承担责任。如果生成的内容虽然虚假、错误或不准确,本身未直接侵害他人民事权益(如个人信息权益、名誉权、肖像权等),此种情形下,由于提供者的行为与民事权益被侵害本身就没有因果关系,自然不存在第三人中断责任成立的因果关系的问题,也不存在提供者与第三人承担多数人侵权责任的问题,应当由第三人依据其过错承担责任。
3.第三人的行为与提供者构成共同侵权。这种情形主要发生在生成式人工智能旨在以侵害他人民事权益为其主要功能或内在目的,从而成为帮助第三人实施侵权行为的工具,例如,通过非法使用他人享有著作权的作品训练出能够生成包含他人作品或受著作权保护的标识等内容的大模型,用户使用该人工智能实施了侵害他人著作权的行为。在这种情形下,第三人的行为与著作权被侵害存在因果关系,提供者本身既实施了数据训练阶段的侵害著作权的行为,也在输出阶段为第三人的侵权行为提供了帮助。故此,就输出内容造成的侵权结果,第三人与提供者应当依据《民法典》第1169条第1款承担连带责任,而就训练阶段的侵权行为应由提供者单独承担侵权责任。
七、结语
虽然生成式人工智能这种新技术的发展给侵权法中因果关系的认定与证明带来了一些挑战,但是其并未彻底颠覆因果关系判断的基本原理与规则。在生成式人工智能侵权责任中不应当简单地采取因果关系推定规则,仍应区分责任成立的因果关系与责任范围的因果关系,并依据“条件说+相当性理论”,依次认定提供者的作为或不作为与民事权益被侵害之间、民事权益被侵害与损害之间是否存在因果关系。同时,要分别认定受害人自身的行为与第三人行为究竟是中断责任成立的或责任范围的因果关系,以至于提供者可以免除、减轻责任,抑或提供者与第三人之间构成多数人侵权责任,从而相应地承担连带责任、按份责任或者部分的连带责任。
凡本网站标明“来源:XXX(非吉林大学司法数据应用研究中心网)”的作品,均转载自其他媒体,转载的目的在于分享信息、助推学术交流,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请联系本网,本网即予删除。