全文转载于《华东政法大学学报》2026年第1期
作者单位:申卫星,清华大学法学院教授,法学博士;鲍伊帆,清华大学法学院博士研究生,德国海德堡大学联合培养博士研究生。
【摘 要】:基于功能主义意志理论,人工智能体已在一定程度上具备自由意志,其功能表现亦逐步超越传统工具属性。有限认可人工智能体的法律人格,对于实现利益的合理配置与填补责任归属中的制度空缺具有重要意义。回顾民事主体制度的历史演进,可以观察到主体概念由“人可非人”发展至“人皆为人”,并进一步延伸至“非人亦可为人”,呈现出历时性与共时性的双重渐进式特征。作为对传统“人—物”二分范式的修正,渐进式法律人格理论强调法律人格并非不可分割的先验资格,而可依据功能与风险结构作层级化配置,其认定标准由自然属性导向转向功能主义导向。人工智能体的法律地位应结合意思能力与系统功能水平作综合判断。当人工智能体能够理性形成意思表示,并在感知、决策与执行等方面达到较高的功能成熟度时,可在与其自主性程度相匹配的范围内赋予有限法律人格,使其在特定范围内具备有限的权利能力和责任能力。同时,要通过领域限定与外部监督对其行权范围加以约束。
【关键词】:人工智能体;渐进式法律人格理论;法律人格谱系;部分权利能力
自2022年12月ChatGPT发布以来,大语言模型驱动的人工智能技术实现跨越式发展,融合任务规划、记忆管理、工具调用与人机交互等功能的人工智能体(AIAgents)逐渐兴起,并在金融、电商、法律服务和医疗等领域得到广泛应用。2025年8月,《国务院关于深入实施“人工智能+”行动的意见》发布,明确提出至2030年实现“新一代智能终端、智能体等应用普及率超90%”的目标。在此背景下,业界普遍将2025年称为“人工智能体元年”。人工智能体一般是指,“能够感知环境、自主规划并采取行动以实现特定目的的系统”。〔1〕随着人工智能体自主决策与行动能力的不断增强,既有法律框架在应对相关问题时已显现困境。其一,在责任承担方面,人工智能体的自主决策行为在一定程度上超出人类参与者的可预见范围,仍由人类承担全部责任的传统归责模式容易导致风险分配的失衡。其二,在利益分配方面,人工智能体在人类的参与下自主完成创作或缔约等活动,若完全否认其因自主行为所产生的利益归属,同样可能导致利益配置的不公。由此可见,有必要重新审视人工智能体的民事法律地位。
为应对人工智能技术发展所带来的挑战,世界各国正积极推进人工智能相关立法工作。欧盟在2017年《关于机器人民事法律规则的决议》中提出引入“电子人格”,并设想通过登记、保险与责任机制规范高智能自主机器人。〔2〕该建议虽未被欧盟委员会采纳,但开启了关于人工智能主体性的讨论。相信随着人工智能技术的不断迭代更新,人工智能体的法律地位必然会是人工智能法治发展的核心议题之一。关于人工智能体的法律地位,学界主要形成了客体说、主体说、有限人格说三条基本路径。现有研究多受制于“人—物”二元范式,难以回应人工智能体在算法驱动、任务执行及自主决策等能力上的层级差异所提出的制度需求;有限人格说虽尝试在中间形态上寻求突破,但理论基础与制度展开仍有待深化。本文尝试作出以下理论研究的推进:第一,基于对民事主体变迁史的考察,引入渐进式法律人格理论,构建以自主性差异为核心的人工智能体法律人格谱系;第二,进一步论证人工智能体部分权利能力制度的可行性,为有限法律人格的实现提供理论支撑与制度构建。
一、人工智能体法律地位的困境与进路
(一)人工智能体法律地位的实践之争
人工智能技术的迅速发展与广泛应用,正不断对既有法律制度的适用边界提出挑战。围绕人工 智能体的法律地位,实践中的争议主要集中于其能否被视为独立的法律主体,从而直接承担法律责任或享有法律利益。当前,司法实践整体上仍否认人工智能体的主体地位,倾向于将其定位为人类行为的技术工具。然而,随着人工智能体在自主决策与复杂行为生成方面能力的显著提升,这种以“工具”为中心的归责模式是否足以应对人工智能体所带来的新型风险,已引发广泛质疑。
在电子合同订立、自动驾驶致害等典型场景中,人工智能体能否成为责任主体的问题尤为突出。以电子合同订立场景为例,人工智能体已在自动交易、智能客服、线上订票等领域得到广泛应用,其在合同形成过程中的功能性作用不断增强。然而,人工智能体能否被视为合同的缔约主体呢?在司法实践中,法院普遍延续工具化立场,将人工智能体视为使用者意思的延伸。德国联邦法院在航空公司线上订票系统案中指出,自动化系统本身不具备缔约主体地位,其运行所引发的法律后果应由实际使用者承担。〔3〕在新加坡“Quoine诉B2C2案”中,因交易平台系统故障,B2C2预设的自动交易程序以明显偏离市场价格的方式大量购入比特币。新加坡上诉法院认为,尽管交易由算法程序执行,但该程序不具有独立法律地位,其“意图”亦不能作为否定合同效力的依据,最终确认交易有效。〔4〕在自动驾驶致害场景中,上述工具化归责模式同样得到延续。美国“Uber自动驾驶致死案”被普遍视为全球首例自动驾驶车辆造成的致命事故。〔5〕美国国家运输安全委员会调查报告显示,自动驾驶系统在事故发生前数秒即已识别行人,但未能及时作出有效反应。尽管如此,检方最终认定由人工监控员承担刑事责任,由Uber公司与保险公司承担民事赔偿责任。
除责任承担问题外,人工智能体能否作为法律主体享有法律利益,同样存在显著分歧。以生成式 人工智能为例,其生成内容能否由人工智能体自身享有知识产权,已在多国实践中引发争议。在我国 “腾讯诉上海盈讯科技侵害著作权案”〔6〕中,涉案文章由原告主创团队人员运用腾讯写作机器人生成,法院认可该生成物构成著作权法意义上的作品,但将著作权归属于人工智能系统的开发者腾讯公司。而在随后出现的“李某某诉刘某某人工智能文生图案”〔7〕以及“王某诉武汉某科技公司人工智能文生 图案”〔8〕中,法院则倾向于将著作权归属于人工智能软件的使用者。在域外实践中,美国“泰勒诉美 国版权局案”〔9〕中,申请人史蒂芬•泰勒(StephenThaler)申请将其开发的人工智能系统“创造力机器”(CreativityMachine)登记为所生成作品的唯一作者,法院以非人类实体不具备主体资格为由,维持了版权局拒绝将人工智能系统登记为作者的决定。与此形成对照的是,在同样由泰勒提起的“DABUS 案”中,澳大利亚联邦法院一审判决认为,专利法并未明确限定发明人必须为人类,进而认可人工智能 系统作为专利申请的发明人。〔10〕尽管该判决随后被联邦上诉法院推翻,〔11〕但其在实践中对人工智 能体主体可能性的探索,仍具有重要的启示意义。
(二)人工智能体法律地位的理论之辩
在人工智能体是否具有法律主体资格的问题上,围绕传统法律人格理论所确立的“人—物”二元结构,相关研究主要形成了客体说与主体说两种代表性立场,并在此基础上发展出以有限法律人格说为代表的折中方案。客体说主张,人工智能体本质上仍属于技术工具。该立场通常以人工智能体缺乏自由意志、意思能力与感知能力等传统主体性要素为由,否认其法律主体资格。〔12〕例如,有学者基于技术自主性与个人自主性的区分指出,法律人格以具备意志形成能力与责任承担能力为前提,而人工智能体的决策仍依赖算法与外部输入,不具有真正意义上的主体性,故以自由意志等主体性要素欠缺为由将人工智能的本质定性为工具。〔13〕有学者主张,人工智能体因缺乏真实的人类情感而不具有法律人格所要求的自由意志。〔14〕另有学者强调,法律主体资格的取得以理性与自主性为前提,唯有具备理性判断和意志能力,才能对自身行为负责。〔15〕
然而,随着人工智能技术与相关哲学讨论的不断演进,关于自由意志等主体性要素的理解本身亦发生了重要变化。其中,围绕“意向性”本质的哲学争论为重新审视人工智能体的主体可能性提供了关键的理论线索。约翰•塞尔基于原始意向性与派生意向性的区分,提出著名的“中文房间论证”(ChineseRoomArgument)。塞尔认为,原始意向性是以人类的意识与心智为基础的固有能力,其独立于外在解释者等实体而存在;派生意向性则是通过原始意向性主体的使用和解释而获得的表征能力,例如言语和符号具有派生意向性。〔16〕与此相对,丹尼尔•丹尼特提出的“意向立场”(Intentional Stance)理论则主张,所有的意向性均为派生而成,人类意向性源于自然进化、社会互动及文化学习过程,其本身亦是高度派生的。在这一解释层面,人类与人工智能系统的意向性并不因主体类型的不同而当然存在本质区分。〔17〕尽管二者在理论立场上存在分歧,但均认可“意向性”并非必然以主观心 理状态为前提,而是一种基于对行为进行预测与解释而形成的功能性归因。这一归因式意志理解,为人工智能体在规范意义上被视为具备“可归责意志”提供了理论可能。
在此基础上,对自由意志的判断逐渐从以自然属性为核心的立场转向功能主义导向,即不再以是否具备与自然人相同的心理状态为决定性标准,而是关注相关行为主体在社会交往中所发挥的功能性作用。有研究指出,当系统能够在记忆、注意、自我建模、自我解释与自我报告等方面达到一定水平时,即可在功能意义上被视为具备意识。〔18〕法人等组织体的法律人格实践亦表明,非人类实体同样可能被法律承认为具有独立意志。尽管有观点强调法人的决策以成员个体的人类意志为基础,〔19〕但从规范结构上看,法人意志并非法定成员意志的简单集合,而是通过制度化的决策机制生成的独立意志。正如英国“所罗门诉所罗门有限公司案”确立的原则,法人的法律人格应与其成员人格相互区分、独立存在。〔20〕由此可见,在功能主义的客观立场下,对人工智能体是否具备自由意志的判断,同样应着眼于其外部行为及其在社会交往中产生的实际效果,而非其是否具有与自然人相当的内在心理状态。
在上述理论背景下,主体说主张,法律人格的认定不应拘泥于自然属性或生物学标准,而应关注人工智能体在理性思维、决策能力与行为可归责性等方面的功能表现。该立场认为,具备高度自主性与复杂决策能力的人工智能体,在规范意义上已呈现出与人类相近的行为模式,从而具备被承认为法律主体的可能性。〔21〕在此基础上,有限法律人格说进一步提出,应当赋予人工智能体功能导向且责任范围受限的法律人格,使其能够在特定领域内承担相应的法律责任,而非一概否认其主体地位。〔22〕然而,现有主体说与有限法律人格说虽突破了将人工智能体视为纯粹工具的传统立场,但仍存在若干有待填补的理论空缺:其一,人工智能体应当对应何种具体人格类型尚未得到清晰界定,部分研究以自然人为参照构建人格模型,忽视当前技术尚未达到通用人工智能水平的现实约束;其二,相关制度设计多采取单一方案,未能充分回应人工智能体因自主性程度差异而产生的分层需求;其三,有限法律人格的“有限性”标准缺乏体系性论证,在权利能力范围、责任承担方式及其制度边界等方面尚未形成规范框架。上述不足,正构成进一步引入渐进式法律人格理论并加以展开的理论动因。
(三)人工智能体主体资格的现实意义
正如赫贝特•策希所指出,人工智能系统的“黑箱效应”使其行为路径在事前难以预测,在事后亦难以充分解释,从而削弱了以人类意志为中心的传统责任归属逻辑。〔23〕随着人工智能体在任务规划、工具调用与环境交互中的自主性不断增强,其行为后果在相当程度上呈现出独立于使用者即时控制的特征,既有制度因而在责任分配与利益配置两个维度面临适用困境。基于功能主义与客观归因的视角,在一定范围内承认人工智能体的主体资格,具有明确的现实意义:其一,能够将由自主决策引发的风险更合理地纳入可归责框架,避免责任长期由使用者或运营者不加区分地承担;其二,能够对由人工智能体完成的创作、缔约等行为结果提供更为一致的利益归属规则,抑制低成本机会主义,并优化内容生产与交易秩序的激励结构。
首先,承认人工智能体的主体资格,有助于回应因其自主决策所引发的“自主性风险”,填补责任空白,从而实现法律责任的公平分配。以人工智能体参与电子合同订立的场景为例,伊恩•克尔指出,人工智能体生成的合同是“由”机器生成,而非仅“通过”机器生成。〔24〕这意味着,相关意思表示并不总能被等同为使用者意思的延伸。若一概将人工智能体视为用户工具,尤其是在人工智能体发出的表示与使用者真实意思不一致时,容易导致两难困境:一方面,若允许使用者依据《民法典》第147条以重大误解为由撤销合同,将削弱相对人对合同效力的合理信赖,进而影响合同稳定性与交易安全;另一方面,若为维护交易稳定而否认使用者的撤销权,合同效力虽得以维持,但由算法行为引发的不利后果将被不加区分地集中归属于使用者,亦有违《民法典》第584条所体现的损害赔偿可预见性规则。对此,有学者建议,应当探索区别于自然人和法人的新型责任承担机制,以减轻受害方的举证责任并维护交易安全。〔25〕由此可见,单纯依赖既有合同法规则难以充分应对人工智能体的自主决策风险。在特定范围内以功能性方式承认其主体资格,有助于在契约稳定与风险分担之间形成更为均衡的制度安排。
其次,承认人工智能体的主体资格,有助于在内容生产与平台交易等领域形成更为合理的利益配置规则,从而避免激励结构向“低成本攫取”倾斜。以著作权领域为例,传统观点坚持著作权法仅保护人的创作,因而否定人工智能成为著作权主体。〔26〕然而,在文生文、文生图等生成式应用场景中,文章、图片乃至音视频作品往往可以在较少人类介入的条件下完成表达生成。使用者输入提示词、调节参数等行为固然具有一定智力因素,但其投入成本和可替代性与传统创作存在显著差异。若当然地将著作权归属于低成本使用者,容易形成过度赋权与机会主义激励,使得投机者以较小投入攫取较大利益,并对插画师、写作者等人类创作者产生排挤效应,进而削弱长期的原创供给。在此意义上,社会可能形成“唯工具主义”的路径依赖,而人类创作活力被持续稀释。进一步从思想与表达二分法出发,在作品生成过程中,具有表达性的创作往往由系统完成。使用者主要提供思想与指令框架,服务提供者则主要承担研发与平台供给,两者在具体表达生成中未必形成与传统作者相当的直接贡献。由此,在一定制度构造下承认人工智能体享有其独创性表达所对应的利益,至少在规范逻辑上更符合贡献投入与收益相称的要求,并有助于抑制低成本机会主义对内容生态的扭曲。
二、从民事主体变迁史看渐进式法律人格理论的缘起
(一)从“人可非人”到“人皆为人”
从法律史的视角来看,法律人格并非自始即被普遍赋予,在相当长时期内呈现为一种高度身份依附与等级秩序的制度性资格。古罗马法典型体现了这种法律人格的身份依附性。在罗马法体系中,自然人并不当然成为法律意义上的“人”,权利能力的取得通常以人的存在、自由身份与市民身份为基本要件。〔27〕其中,自由身份构成权利能力的核心要件。而奴隶则被排除在自由之外,〔28〕奴隶既无婚姻资格,也无交易资格,其在法律上不被视为主体,而被定位为权利的标的。〔29〕在市民身份维度,罗马法早期将市民资格同时作为政治资格与私法地位的前提,市民身份的有无决定了人是否被承认为“法律上的人”。外国人在《十二表法》中被称为“外人”,后世称“异邦人”,其虽对自身行为享有自由,但因缺乏市民身份而起初不受罗马民法保护,通常只能借助万民法或外事裁判官机制获得有限救济。〔30〕随着贸易往来和文明交流的扩展,罗马逐步承认外国人的有限权利能力,市民法与万民法由此呈现出逐步融合的制度趋势。至公元212年,卡拉卡拉皇帝颁布敕令,将罗马市民权普遍授予帝国境内几乎所有自由居民,市民身份才在规范层面趋于普及。
与上述身份门槛并行,罗马法上的“人格减等”(capitisdeminutio)制度亦体现出对主体资格的分层削减。人格减等区分为三类:最大人格减等(capitisdeminutiomaxima)涉及自由地位的丧失;中人格减等(capitisdeminutiomedia)涉及市民身份的丧失;最小人格减等(capitisdeminutiominima)则主要表现为家族关系更替导致的家族权变动。失去自由或市民身份通常被视为“市民法上的死亡”,因为这意味着主体资格在规范意义上的整体消灭。〔31〕这一制度进一步表明,法律人格并非当然归属,而是依附于社会等级、政治身份和家庭关系,并可以在制度上被差异化配置。
除奴隶与外国人外,妇女与处于父权之下的家子在罗马法中亦难被视为具有完全独立的法律人格。《法学阶梯》指出,女性处于夫权之下。〔32〕即便在后期婚姻形式演变后摆脱夫权,成年妇女仍常受男性监护约束,重大法律行为需经监护人同意。与之相似,家子在父权之下被视为家父人格的延伸。〔33〕家父享有全面的家长权(patriapotestas),对家庭成员的人身、劳动与财产具有高度支配权;家子即使取得劳动报酬或交易所得,通常亦不能独立享有,只能在父亲许可下管理“子产”,其所有权仍归家父。在侵权责任上,家父甚至可以通过“过失交付”将致害家子交付受害人以替代赔偿,将家子视为可处分的对象。家子唯有在父亲死亡或经解放脱离父权后,方能成为自身权利人(suiiuris),进而取得完整人格地位。
随着近代以来人权观念的确立,法律人格的适用范围持续扩展,逐渐呈现出从“人可非人”走向“人皆为人”的历史进程。斯多亚学派以理性为基础论证人的自然平等,认为人类皆能理解并服从普遍自然法,从而在自然层面具有平等地位。〔34〕罗马法学家乌尔比安亦有“在自然法方面,所有人都是平等的”之表述,〔35〕被后世视为自然平等观念的重要来源之一。18世纪末以来,各国通过立法陆续废除奴隶制度,明确人不得作为财产。与此同时,女性法律地位持续提升。1929年10月18日,英国枢密院在“爱德华兹诉加拿大案”(PersonsCase)中裁定女性属于法律上的“人”,并由此奠定女性平等参政权的宪制基础。〔36〕自20世纪下半叶起,性别平等原则逐步被写入各国宪法与基本法,女性法律人格长期存在的不完整状态由此得到纠正。未成年人作为法律主体的普遍承认亦随现代民法体系发展而确立。至此,“人皆为人”成为现代法治与人权秩序的基本命题,法律人格由身份特权转化为普遍性权利。
(二)从“人皆为人”到“非人亦可为人”
在确认自然人普遍享有法律人格之后,现代法律开始探索通过法律拟制的方式赋予非人类实体以法律主体资格。组织体、动物等在不同法域、不同制度目的下获得有限或特定意义上的主体地位,显示出法律人格具有明显的工具性特征。法律人格的设定不只反映自然属性,也承担了组织经济生活、分配风险责任与表达价值取向等规范功能。由此,法律人格的演进在“人皆为人”之后呈现出新的发展方向,即在一定条件下承认“非人亦可为人”。
首先,组织体人格化是法律实践中最早也最为稳定的人格扩张形态之一。早在罗马法时期,市民团体、祭祀团体与行业团体即被允许以整体名义持有财产并参与诉讼。中世纪教会法进一步发展出“拟制人格”理念,将修道院、主教区和大学等团体视为独立的法律主体,使其能够永久存续、独立持有财产并取得诉讼地位。进入近代,法人概念逐渐世俗化,城市自治团体、行会与大学通过王室特许或成文法取得法人地位,特许公司亦随之兴起。19世纪,德国法学界围绕法人的本体问题形成法人虚构说与团体意志说等经典争论。〔37〕尽管理论分歧持续存在,但现代法律普遍承认法人与自然人并列为民事主体。在英美法系中,美国“彭比纳综合银矿公司诉宾夕法尼亚州案”〔38〕和“明尼阿波利斯与圣路易斯铁路公司诉贝克威思案”〔39〕等判例,被用以明确公司在美国宪法第十四修正案框架下受到平等保护。我国《民法典》第57条亦明确法人自成立起即具有民事权利能力和民事行为能力。组织体人格化表明,法律人格可以通过制度技术赋予非自然人实体,以满足财产归属、持续经营与责任承担等规范需要。
其次,动物的法律地位正呈现出由“财产或资源”向“受保护主体”转变的趋势。随着动物感知能力与智能的科学证据逐渐积累,立法与司法实践中开始出现动物人格化的倾向。在实证法层面,《德国基本法》第20a条确立了动物保护原则,《德国民法典》在1990年修订时,明确增订第90a条规定“动物不是物”。〔40〕在司法实践中,阿根廷“桑德拉人猿案”常被视为非人类人格化探索的经典案例。 2014年12月18日,阿根廷联邦刑事上诉法院裁定红毛猩猩桑德拉作为权利主体。〔41〕随后,布宜诺斯艾利斯行政法院进一步确认桑德拉为“非人类之人”,并要求政府为其提供免受虐待且适宜的生存环境。〔42〕2016年,阿根廷门多萨省第三保障法院在“塞西莉亚案”中作出类似判决,认定黑猩猩塞西莉亚为非人类法律主体。〔43〕美国“非人类权利项目”(NonhumanRightsProject,NhRP)多次为黑猩猩和大象提起人身保护诉讼。审理该案的两位大法官在正式意见中明确表示动物作为有感知的生命应具备有限的法律人格。〔44〕由是观之,动物从财产向主体的转变表明法律人格边界的再次突破。
综上所述,法律人格的演进并未止步于“人皆为人”,从法人、非法人等组织体到动物,乃至自然物〔45〕,法律通过拟制手段赋予非自然人实体以主体地位,体现了法律人格的功能性特征。法律人格的发展历程表明,法律人格具有制度功能属性,并能够随社会交往结构与规范目的的变化而调整其边界。法律主体的范围已不再以人类为界限,“非人亦可为人”的发展为进一步探讨人工智能体这一新型非人主体的法律人格提供了理论与实践基础。
三、人工智能领域中渐进式法律人格理论的适用
既有法律人格的讨论长期依托于“主体—客体”二元范式,其论证路径倾向于将法律人格理解为全有或全无的判断结果,难以回应人工智能体在不同应用场景中所呈现出的自主程度差异及由此产生的风险分层问题。渐进式法律人格理论基于功能主义视角对既有范式予以突破,强调法律人格的制度性建构可以分层配置,并呈现出历时性与共时性双重维度之上的渐进式特征。鉴于人工智能体的自主性本身呈现为连续光谱,渐进式法律人格理论能够为人工智能体法律地位的谱系化建构提供更具解释力的理论基础。
(一)渐进式法律人格理论的发展历程
渐进式法律人格理论是对传统法律人格二元论的回应与革新。传统“人—物”二元理论将法律人格理解为统一且不可拆分的先验资格,其思想谱系以自然法与德国古典哲学为代表。康德指出,唯有能够自我立法并承担道德义务的存在者,方可具备人格与尊严并构成法律主体。〔46〕黑格尔将法律人格理解为抽象自由意志的法律表现形式,其本质是对自身作为完全抽象的“我”之意识。〔47〕萨维尼以道德自由为基础,坚持只有人类才可能具有法律人格的立场。〔48〕此类观点强调主体资格的排他性与整体性,更易形成全有或全无的资格判断。然而,随着社会结构的演变,以自然属性或道德能力作为主体资格的必要要件,难以解释何以法人、基金会以及船舶等非自然人实体能够在既有法秩序中稳定承载权利义务。正如学者所言,人工智能体法律主体性的有无,取决于其在社会与法律结构中所发挥的实际功能,而非其是否具备感知或理性能力;在社会交往中承担特定角色的行为体均有可能被法律赋予主体地位。〔49〕近年来,学界逐步提出“渐进式法律人格”理论,主张法律人格呈现出渐进过渡的谱系状态。
在学理谱系上,“渐进式法律人格”虽作为术语出现较晚,但其核心思想在早期功能主义研究中已有清晰表达。劳伦斯•索鲁姆基于功能主义路径讨论人工智能体的法律人格,强调主体资格与其从事特定法律行为的能力相关,并通过“人工智能担任信托受托人”的思维实验,提出分层递进的制度构想。〔50〕索鲁姆在思想实验中将人工智能的法律地位划分为三个阶段:第一阶段,人工智能作为受托人的辅助工具,由人类受托人保留最终决策权;第二阶段,在人工智能于特定任务中表现优于人类时,信托设立人要求受托人依据人工智能的建议行事;第三阶段,人工智能直接替代人类担任信托受托人,以降低成本、减少道德风险并提高履行效率。该框架将人工智能体的法律地位与功能能力相匹配,是渐进式法律人格理论的初期体现。
在此基础上,斯特芬•韦蒂希等提出“渐进式路径”(ProgressiveApproach)概念,明确反对将法律人格视为全有或全无的二元断言,主张依据行为体的功能性能力逐步赋予其有限法律人格,并提出可登记注册、具备有限责任能力的“电子人”设想,用以填补传统人格理念在面对自主系统时的不足。〔51〕贡塔•托依布纳对该思想进行了进一步深化,强调法律人格并非预设的资格,而是取决于其在特定情形下的社会功能角色,具有生成过程上的渐进性。〔52〕贝尔特-亚普•库普斯等则以人工智能发展的短期、中期与长期阶段为划分,探讨法律如何在技术成熟度的不同阶段逐步承认人工智能的有限乃至更强的主体地位,以弥补责任缺口。〔53〕格哈德•瓦格纳在认可法律人格具有渐进性的同时,指出人工智能法律人格的建构应严格受制于功能需要,以防止法律人格沦为规避责任的工具。〔54〕
正如莱恩特•史密斯所言:“法律赋予人格的广义目的在于使有组织的社会能够规范交往与行为,无论被赋予者是船舶、神像还是自然人。”〔55〕法律人格不应被视为主体固有的自然属性,而应被理解为法秩序出于规范社会交往的制度需要所建构的规则。〔56〕在此意义上,法律人格的渐进式发展呈现出历时性与共时性两个维度。其一,在历时性维度上,法律主体的范围随社会伦理观念的演进而扩展,奴隶、女性、家子等历史上曾被排除或限制的自然人群体乃至于法人这一非人类实体,逐步进入法律主体的范畴;其二,在共时性维度上,法秩序基于功能主义考量,对同一历史阶段内的不同主体配置不同层级的权利能力与责任能力。罗马法中的人格减等、现代组织体制度与不同组织类型的权利能力差异,均表明法律可以依据主体在社会交往中的功能角色,分层赋予差异化的法律主体地位。
渐进式法律人格理论在人工智能的制度实践中亦有所体现。近年来,欧盟多次提出构建“电子人格”制度。欧盟议会在2017年2月16日通过的《关于机器人民事法律规则的决议》中,要求欧盟委员会在未来立法影响评估中考虑为最复杂的自主机器人创设特定法律地位,并在其自主决策或独立与第三方互动的情形下引入“电子人格”制度,使其对可能造成的损害承担赔偿责任。〔57〕在欧盟之外亦出现诸多实践例证。例如:沙特阿拉伯的社交机器人Sophia成为全球首个被正式授予公民身份的机器人;马耳他提出用以评估人工智能系统理解能力的“机器人公民身份测试”;南非公司与知识产权委员会(CIPC)在专利申请中认可人工智能系统作为专利发明人。此类实践均表明,多国正逐步采纳功能导向的法律人格认定思路,分阶段赋予人工智能以相应的法律主体资格。
基于上述理论演进与制度实践,渐进式法律人格理论已在不同法域中展现出较强的适应性。该理论突破传统法律人格的二元划分框架,为人工智能体法律地位的分层建构提供了理论基础,并在现有制度讨论与实践探索中显示出现实可行性。
(二)人工智能体主体资格的要件考察
人工智能体是否有必要被赋予主体资格,取决于其行为后果能否在既有主体体系中得到妥当归属。相关后果若难以通过开发者、部署者、使用者等既有主体的归责规则实现合理的责任分配与有效救济,即具有进一步讨论引入人工智能体主体地位的必要性。围绕这一判断,关键在于人工智能体是否已经具备可归责的行为能力,亦即其是否能够在相对自主的运行过程中生成并实施足以进入法律评价的行为,使相应行为后果难以被当然纳入特定自然人或法人的意思与控制范围加以解释。就具体要件而言,可以从意思能力与系统功能水平两个维度综合判断:其一,意思能力,指人工智能体能否形成具有规范意义的意思表示;其二,系统功能水平,指其能否在技术上稳定实现意思表示的表达与履行。人工智能体在上述两个维度均达到相应标准时,方可认为其具备可被法律评价的行为能力,从而满足在特定范围内被纳入法律人格讨论的前提条件。
首先,意思能力是指主体能够理性地形成意思表示的能力,即理解并辨识法律行为的性质、内容与后果,并能据此评估相关交易风险的认识力、理解力与分辨力。〔58〕维尔纳•弗卢梅指出,意思能力的核心在于行为人能否“理解自己所作出意思表示的意义并能按照这一理解实施行为”。〔59〕在具体判断上,意思能力的判断标准因主体类型的不同而存在差异。〔60〕对人工智能体而言,判断是否具有意思能力的核心在于,其是否能够在缺乏外部直接指令的情况下自主形成行动目标,基于信息处理进行方案比较,并将所选定的方案作为“自身决策”持续推进。人工智能体的输出若仅是对输入刺激的被动响应,难以构成意思表示;其输出若展现出目的导向与策略优化能力,则可以认为其在特定意义上具备理性决策的功能结构,从而满足意思能力的基本要求。
在技术判断上,可借助学者提出的人工智能体分类,将人工智能体的行为决策模式区分为简单反射型、基于模型的反射型、基于目标型与基于效用型四个层级。其一,简单反射型人工智能体仅依据当前感知触发预设规则,行为呈现为输入与输出的机械映射,缺乏对情境持续分析与策略调整的能力;其二,基于模型的反射型人工智能体能够记录环境状态并基于模型知识作出有限预测,但其“模型”无法主动设定目标或灵活调整策略;其三,基于目标型人工智能体围绕既定目标评估行动路径,其决策过程不仅可以参考环境状态和历史数据,还能够动态评估行动是否有助于实现既定目标;其四,基于效用型人工智能体进一步在多重目标之间进行权衡,依据效用标准选择期望结果更优的方案,体现出更强的理性选择结构。〔61〕
由此可见,简单反射型人工智能体仅依赖预设指令对输入信号作出固定反应,缺乏意义理解与目的判断;而基于模型的反射型人工智能体虽然能够通过内部模型记录环境状态并进行有限预测,但仍缺乏目标设定能力,二者均难以满足意思能力要求。相较而言,基于目标型人工智能体能够自主设定目标并评估行动是否有助于目标实现,具备初步的计划与判断能力;基于效用型人工智能体不仅能够设定和追求单一目标,还能在多目标间进行效用评估与选择,从而体现出高度的理性自决结构。因此,在以上四个层级中,只有基于目标型人工智能体与基于效用型人工智能体具备目标设定能力与自主规划能力,能够围绕所设条件进行方案比较并形成选择结果,其决策模式已呈现出意思形成所需的关键要素,可以被评价为在功能意义上具备意思能力。
在人工智能体的实际应用中,意思能力需结合具体场景作出分层判断。其一,在电子合同订立场景中,简单反射型人工智能体多为固定条款的自动应答或价格匹配,难以体现意思形成;基于模型的反射型人工智能体虽可进行预测与推荐,但其无法围绕合同目的进行取舍与风险判断,仍不足以构成意思表示;基于目标型人工智能体能够围绕谈判目标规划策略并评估条款风险,其输出已初步体现意志判断功能;基于效用型人工智能体能够在成本、履约风险、谈判效率等多重目标间权衡,所形成的决策已符合意思表示特征。其二,在自动驾驶场景中,简单反射型人工智能体仅能够对单一刺激作出自动刹车、保持车距等固定反应;基于模型的反射型人工智能体虽可进行环境预测,但缺乏对复杂路况下多方案取舍的能力;基于目标型人工智能体能够围绕安全到达等目标规划行动;基于效用型人工智能体则能够在安全、效率、舒适性与能耗等目标间权衡,其决策符合意思能力的功能要求。其三,在知识产权创作场景中同样如此,前两者的模板化输出或风格模仿难以体现创作意图;后两者能够根据特定主题或创作任务目标进行理性选择,甚至能够在审美、风格和创新性之间进行平衡调整生成策略,其创作行为已然体现出自主意图。
其次,对人工智能体行为能力的判断还需从系统功能水平维度审查其是否能够在技术上稳定实现意思表示的表达与执行,并在客观上承担相应后果。系统功能水平可从感知、决策与执行三项核心能力展开。其中,感知能力要求人工智能体能够接收、识别并处理自然语言、视觉图像与传感数据等外部信息;决策能力要求其能够综合内部模型与外部数据生成方案并进行优化;执行能力则要求其能够将决策结果转化为可观察的行为或可验证的操作结果,并在异常情形下具备必要的纠错与安全控制机制。此外,学习、记忆与交互能力可作为判断人工智能体功能成熟度的辅助标准,用以评价其适应性、稳定性与持续自治性。系统功能水平越高,人工智能体越可能在事实层面持续实施法律行为并引发可归责后果。
(三)人工智能体法律人格的谱系建构
随着人工智能体自主决策能力的持续提升,其行为所引发的风险在部分场景中已难以完全被纳入传统工具范畴中的归责框架。正如瑞安•马伦所强调的,法律人格并非“有或无”的二元概念,而是呈现出连续性的光谱结构。〔62〕基于这一认识,本文引入功能主义分析视角,讨论人工智能体法律人格的拟制路径,并据此构建以自主性程度分级为核心的法律人格谱系。
从功能主义立场出发,人工智能体法律人格随其自主性程度提高而呈现出层级化、渐进式的谱系特征。就规范构造而言,可将人工智能体的法律地位概括为三个阶段。第一阶段为工具型人工智能体,处于自主性光谱的低端,主要承担传递意思表示、信息检索和数据处理等预定任务,缺乏自由意志和意思能力。该类系统不宜被认定为民事主体,其行为后果原则上仍在使用者、运营者或开发者的既有责任框架内分配。第二阶段为有限法律人格型人工智能体。该类系统在特定领域具备稳定的环境感知、情境判断与方案生成能力,能够在限定条件下形成意思能力,其自主性并未达到完全脱离人类控制的程度,但已足以在部分情形下具有权利能力和责任能力。第三阶段为完全法律人格型人工智能体,位于自主性光谱的高端,具备与自然人相近的行为自主性,能够在缺乏人工干预的条件下持续运行并调整行为,从而在理论上可能具备完整的意思能力、行为能力与责任能力。对现阶段的技术发展而言,人工智能体应用主要集中于工具型与有限法律人格型,属于强人工智能的完全法律人格型人工智能体虽在技术上可预期,但尚未现实出现。
在前述三类法律人格形态中,有限法律人格型人工智能体更具制度化的现实基础,其规范定位体现为权利能力与责任能力的双重限定。首先,在权利能力方面,有限法律人格型人工智能体的权利能力宜集中于获得收益与拥有责任财产两项财产性内容。拉伦茨指出,承认某一主体具备权利能力,意味着其能够享有因权利行使而取得的利益。〔63〕当人工智能体已具备一定法律行为能力,并实质参与交易活动的形成,从而持续产生可量化的经济收益时,法律上可承认其享有财产收益的权利。具体制度设计可借鉴法人财产独立化思路,为符合条件的人工智能体设立专项账户。使用者或运营者因系统运行获得收益的,依据事先约定的比例将部分收益划入专项账户,用于系统维护、性能迭代以及潜在赔偿责任的承担。同时,有限权利能力的边界应与人工智能体的自主性水平相一致。人工智能体可以参与的法律行为类型、金额上限与风险等级,应当进行登记并予以公示,避免以“有限人格”为名扩张其参与范围,并以此转移高风险的交易成本。
其次,在责任能力方面,有限法律人格型人工智能体的关键在于以责任财产独立化实现限制责任的制度效果。梅迪库斯指出,法人制度的重要功能之一在于通过财产独立化产生限制责任的法律效果。〔64〕可考虑将此引入人工智能体的治理体系,旨在为高自主系统所引发的损害提供可预期的第一层赔偿来源。一方面,这有助于防止使用者在系统不可预测性显著上升时承担与其控制能力不相称的过重责任,实现更为均衡的风险分配;另一方面,也为开发者、运营者等相关主体提供边界更清晰的责任结构,避免在责任链条不明时被无限追责,从而在风险可控的前提下保留技术创新的空间。与此相配套,可参照法人登记制度建立人工智能体登记备案机制,向交易相对人公示其自主性级别、可参与的法律行为范围及责任财产状况,提升交易透明度并降低信息不对称风险。
四、人工智能体的部分权利能力
(一)部分权利能力理论的形成与发展
在传统民法观念中,同法律主体资格一样,权利能力亦被理解为“全有或全无”的状态,这往往难以准确描述部分特殊主体在特定法律关系中的地位。例如,尚未出生的胎儿、处于设立过程但尚未取得法人资格的公司等,均曾长期被排除在民事权利主体的范畴之外。奥地利学者欧根•埃利希在1909年《权利能力》(DieRechtsfähigkeit)一书中即指出,法律上的主体资格具有多元性,权利能力并非只能以二元结构加以理解,不同主体可以依其所处情境而享有不同程度的权利能力。〔65〕在此思想基础上,德国学者汉斯•沃尔夫提出“部分权利能力”(Teilrechtsfähigkeit)概念,将其界定为某个人或由人组成的团体仅在特定法律规范所划定的范围内具备法律能力,而在其他方面不作为权利义务主体的法律地位。〔66〕弗里茨•法布里修斯于1963年提出“权利能力相对性”(RelativitätderRechtsfähigkeit)的构想,主张权利能力不宜被理解为统一、不可分割的整体,而应当面向具体法律关系作相对化认定。〔67〕由此,“部分权利能力”逐渐发展为德国民法中所接受的概念,用以说明某些主体虽不能在法律秩序中普遍地作为权利义务承担者,却能够在特定范围内取得法律主体资格。
自20世纪下半叶以来,德国司法在多个领域吸收并发展了部分权利能力的思路。1975年堕胎判决中,德国联邦宪法法院强调国家对胎儿生命的保护义务,从而为胎儿作为“未出生人”受到法律保护奠定基础。〔68〕随后,德国联邦最高法院在相关判决中进一步指出,胎儿可以成为某些法律关系中的权利主体,例如在出生后承受继承利益,亦可作为受赠人接受赠与。〔69〕在公司法领域,公司登记设立之前虽尚未取得法人资格,但司法实践将设立中的公司视为“自身类属的法律主体”(Rechtsformsuigeneris),允许其在章程与相关规范所要求的范围内从事必要法律行为。〔70〕同样,传统上不被视为法人的民法合伙(GesellschaftbürgerlichenRechts)以及分层所有权结构下的业主共同体(Wohnungs-eigentümergemeinschaft),亦在司法层面被承认为具有一定的主体地位。德国联邦最高法院明确认可对外活动的民法合伙组织具备有限法律主体地位,业主共同体亦被定位为具有部分权利能力的组织体。〔71〕上述主体在特定范围内被视为法律意义上的权利义务主体,其主体性的范围与强度由其功能角色与规范目的共同限定。
(二)部分民事权利能力的中国法体现
1986年,我国《民法通则》以自然人与法人为核心构造民事主体体系,权利能力配置呈现出典型的二元结构,即自然人自出生至死亡享有民事权利能力,法人自核准成立至终止享有民事权利能力。该体系在规范表达上较为简洁,但对胎儿、设立或清算中的法人以及非法人组织等非典型主体缺乏体系性的制度安排。随着社会交易的发展以及人格利益保护需求的扩展,该权利能力的二元体系逐渐显现出适应上的不足,难以为尚未完全具备传统主体要件但确有规范保护必要的主体提供法律保护。
在此背景下,我国学者自21世纪初开始关注德国法上的部分权利能力理论。有学者基于一般权利能力与具体权利能力的区分指出,权利能力的内容并非只能以非有即无的状态存在,其实则表现为一种层次递进,在具有全面的权利能力和不具有权利能力之间,存在着在特定法律关系中承认权利能力的空间。〔72〕反对观点则认为,该理论易混同权利能力与广义行为能力、权利能力与具体权利之间的区别,削弱体系的概念清晰性,因而不宜直接将其引入我国民法。〔73〕尽管存在争论,部分民事权利能力的理念已逐步在我国立法的诸多条文中得到表达。
2017年,我国《民法总则》首次在立法层面清晰呈现部分民事权利能力的思路,并在《民法典》中得到延续。《民法典》在多个条文中明确赋予特定主体以有限的权利能力,主要体现为以下四类:其一,胎儿的部分权利能力。《民法典》第16条规定,在涉及遗产继承、接受赠与等胎儿利益保护的情形下,胎儿被视为具有民事权利能力;但若娩出时为死体,其权利能力自始不存在。其二,设立中法人的部分权利能力。《民法典》第59条规定法人的民事权利能力自成立时产生,并同时在第75条第1款明确设立人为设立法人从事的民事活动,其法律后果由法人承受。这意味着,法人在尚未正式成立时已被法律拟制为承担民事责任的主体。其三,清算中法人的部分权利能力。与设立中的法人相对应,《民法典》第72条第1款规定法人于清算期间存续,但不得从事与清算无关的活动,这体现出清算阶段对法人民事权利能力的限定。其四,非法人组织的部分权利能力。《民法典》第108条规定,非法人组织除适用本章规定外,还可以参照适用法人设立与清算阶段的相关规则。由此,合伙企业、个人独资企业以及不具有法人资格的专业服务机构等非法人组织,在设立与清算阶段亦享有部分民事权利能力。
(三)人工智能体部分权利能力的构建
部分权利能力理论为人工智能体法律地位的分层配置提供了解决路径。民事权利能力并非单一、不可分割的整体,而是按照功能需求呈现出由弱到强的层级分布,并据以作出区分领域和事项的限定性赋权。在部分权利能力的具体构造上,可以借鉴现代权利束理论。该理论将法律人格理解为一组相互关联的“事件”的集合,不同法律实体可以在不同事件上拥有不同组合,从而在人格光谱中处于不同位置。〔74〕自然人通常具有完整的人格事件组合;法人则缺少自然人专属的婚姻、继承等事件;介于人和物之间的主体亦可能在特定领域获得部分事件,例如动物在动物保护法上有限度的权利地位。沿此思路,人工智能体的“部分权利能力”同样可以被理解为一种限定性的事件组合,在特定领域承认其成为权利义务主体,以此体现权利能力的部分性特征。概括而言,人工智能体的部分权利能力应从赋权与限权两个方面共同建构。
从赋权的视角来看,人工智能体意图在特定范围内成为权利义务的承载者,须以可供外部追偿的责任财产为基础。责任财产的制度功能在于为人工智能体行为后果提供第一顺位赔偿,其存在多种途径的资金来源:其一,由运营者在设立阶段投入初始责任财产,投入规模应与人工智能体拟从事的业务类型、交易规模与风险水平相匹配;其二,在人工智能体运行过程中,将使用者支付的服务费用按约定比例划入责任财产,形成持续补充机制;其三,运营者负有维持责任财产充足性的持续义务,并通过动态评估确保其与业务风险相适应。若责任财产明显不足,意味着人工智能体已不具备独立对外承担义务的能力,应当启动相应的限制机制,例如暂停其以自身名义参与交易,或要求其补足责任财产后方可继续运行。与此同时,责任财产的独立性及其支配范围亦应在设立阶段予以明确,可将其用途限定于合同履行、损害赔偿、系统维护与合规成本等特定事项,以避免责任财产被任意抽离而将风险转嫁于交易相对人。人工智能体在限度范围内对外作出的意思表示,可以直接发生法律效力。相应地,人工智能体取得的服务费用或履约收益可以归入其责任财产,用于后续运行与风险承担。
从限权的视角来看,人工智能体部分权利能力的正当性依赖于严格的范围控制与外部约束。对适用领域而言,其主体资格宜限于电子合同订立、知识产权利用、数据或内容服务等具有显著财产性与经济性特征的场景。在这些领域中,人工智能体的运算、记忆与分析能力能够有效提升交易效率并降低部分交易成本,有限度的赋权具备现实需求基础。与此相对,在宪法性基本权利领域以及生命权、隐私权、名誉权等人格权利高度依附自然人的主体性与人格尊严的领域,应当排除人工智能体的权利主体地位。即便在经济领域内部,人工智能体的权利能力亦需进一步分层限制。
此外,必须将有限法律人格型人工智能体的部分权利能力置于使用者和运营者等主体的监督与管理下,并通过明确的责任分工保障其可执行性。使用者的职责侧重于确保人工智能体的运行遵循操作规则,并在系统异常或风险提示出现时及时干预。运营者的职责则集中于系统层面的安全与合规保障,包括硬件与算法的合规运行、更新维护、风险评估及责任财产账户的管理。在人工智能体的行为造成损害时,可构建责任财产优先清偿、相关主体承担补充责任的分层责任机制。原则上,首先由人工智能体以其独立责任财产承担赔偿责任;责任财产不足以覆盖全部损害的,再根据损害的可归责性,在使用者未尽监督义务、运营者未尽安全保障或维护义务、开发者存在设计或算法缺陷等情形间分配补充责任。使用者或运营者能够证明其已尽到合理监督或管理义务的,可以减轻其赔偿责任。
五、结语
人工智能体的自主决策能力持续提升,其在部分场景中已超越传统工具的范畴,在功能主义视角下已能够具备自由意志。既有学说长期以“人—物”二元结构为基础,在面对人工智能体自主性层级分化所引发的责任配置与利益归属问题时的回应不足。从民事主体制度的历史演进来看,法律人格经历了从“人可非人”到“人皆为人”,再到“非人亦可为人”的发展历程。这一变迁表明,法律主体的范围并非天然限定于自然人,而是会随社会交往的规范需求而调整。基于此,渐进式法律人格理论提出,法律人格并非一项不可分割的先验资格,而是一种可依功能与风险结构作层级化配置的制度建构。这意味着,法律人格的判断标准呈现出从自然属性导向向功能主义导向的转变,从而为人工智能体法律人格谱系的构建提供了更具解释力的理论基础。就规范构造而言,人工智能体是否有必要被纳入法律人格体系,关键在于其是否已经具备可被法律评价与归责的行为能力。该行为能力可从意思能力与系统功能水平两个维度加以综合判断。当人工智能体呈现出基于目标型或基于效用型的决策模式,并具备较强的感知、决策与执行能力,从而在功能层面形成相对稳定的决策与执行机制时,可以在与其自主性程度相匹配的范围内赋予其有限法律人格。
人工智能体的法律地位可以借助部分权利能力加以建构,对有限法律人格型人工智能体采取“有限赋权”与“严格限权”的配置思路。就赋权面向而言,有限法律人格型人工智能体的主体资格应以独立责任财产为基础,并在特定范围内具备对外缔约、承担合同债务与相关民事责任的可能性。责任财产的规模与用途应与人工智能体的业务类型、交易范围与风险水平相匹配,并通过收益归集与持续补充机制维持其可赔付性。就限权面向而言,人工智能体的部分权利能力应严格限定于具有显著财产性与经济性特征的领域。与此同时,应将有限法律人格型人工智能体的运行置于使用者与运营者的持续监督与管理之下。当人工智能体的行为造成损害时,可以构建责任财产优先清偿、相关主体承担补充责任的分层责任机制。
总之,法律规则作为社会关系的制度化表达,应当随着技术环境与社会交往的变化而作出相应调整。随着人工智能技术的持续发展,人工智能体在社会运行中的功能角色发生转变,其主体资格的制度定位亦有必要随之加以重构。
凡本网站标明“来源:XXX(非吉林大学司法数据应用研究中心网)”的作品,均转载自其他媒体,转载的目的在于分享信息、助推学术交流,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请联系本网,本网即予删除。