人工智能决策中的法律责任归属与正义困境
王小岩
浙江大学 浙江省杭州市 310000
人工智能正从传统意义上的工具逐步演变为社会运行的重要决策力量。无论是医疗影像辅助诊断、金融风控模型,还是司法审判中的类案推送与量刑建议,其决策结果在相当程度上影响着权利义务的分配。2017 年出台的《新一代人工智能发展规划》首次明确提出,要“健全人工智能发展的法律法规和伦理框架”。此后,《数据安全法》《个人信息保护法》以及《互联网信息服务算法推荐管理规定》相继出台,从数据安全、隐私保护到算法透明,初步构建了人工智能的合规治理体系。司法层面,最高人民法院在“智慧法院”建设和相关司法解释中,也逐渐涉及人工智能证据使用与程序正义问题。
然而,现行规范体系仍以“人”为唯一责任主体,缺乏对人工智能作为“准主体”可能带来法律后果的直接回应。《民法典》虽然设立了较为完备的侵权责任框架,但在人工智能引发的损害事件中,责任主体难以明确,尤其是在深度学习与黑箱算法环境下,因果链条复杂、责任边界模糊,受害人维权成本高昂。这不仅使法律责任的归属成为现实难题,也关乎法律能否在技术社会中维系正义的核心价值。
二、人工智能决策中的责任归属现状与困境
(一)责任归属的现实图景
在实践中,人工智能引发的损害往往被装入既有框架:开发者/提供者被比附为产品责任主体,使用者被理解为终局决策者,算法仍被视为工具。然而,这种“类比—嵌入式”的思路在AI 场景下逐步显露不适。其一,所谓“缺陷”不再是可见的物理瑕疵,而是训练数据的结构性偏差、模型参数的不可解释性与持续学习带来的动态变化——它们更像过程性风险而非静态缺陷,使传统合格证明与出厂检测对归责意义骤减。其二,使用者名义上的“自主决策”,在高压合规与效率考核的组织语境里,往往让位于对算法输出的制度性依赖:医生在时间门槛与风险规避下“参考”AI 影像结论,风控员在批量放贷中“采纳”模型评分。于是,责任形式上系于人,实质上却被技术驱动,人机之间的注意义务与控制力出现错位。这种错位让“谁享有控制,谁承担责任”的朴素原则在操作上失灵,责任链条随之松动。
(二)结构性困境,因果、标准与边界
AI 场景中的归责困难,首先源于因果关系的证成困境。深度学习模型把可解释性让位于效果最优,黑箱化使“缺陷—损害”的可证明链条大幅缩短:受害人即便能证明决策有偏差,也难以举证该偏差如何从数据到参数再到输出导致特定个案损害。传统的“过错—注意义务—因果”路径因此成本高昂,法院也难以在证据贫乏中维系较高置信度的事实认定。其次是标准的不对称:开发者常以“行业通行做法”“状态—of—art”作为抗辩,而使用者被要求承担实践中并不现实的审查义务——要求一名医生或信审人员对复杂模型进行可解释性核验,本身就是将技术成本外包给弱控制方。再者是边界的漂移。持续学习与场景迁移让模型性能随时间和环境发生“分布漂移”,谁来对“上线时合格、运行中退化”的风险买单?如果开发者以“上线合规”切割责任,而使用者又无法掌控模型更新,就会出现系统性“无人地带”。边界模糊与责任漂移叠加,使开发者与使用者之间形成“指责回路”:前者指向“错误使用”,后者指向“算法误导”,最终压缩的,是受害人的举证空间与救济窗口。
(Ξ) 正义难题,补偿、责任与程序
纠纷进入救济阶段,首先受损的是补偿正义:举证难与主体不明使受害人可能在形式正义完备的程序中“败诉”,而损害事实却真实存在。其次,责任正义出现“过载与空转”的并存现象:在强烈的社会期待下,法院有时将责任集中赋予可识别、可执行的机构(医院、银行),以确保个案救济;但这易造成对强势主体的制度性“过
,而真正具备模型控制力和升级权的环节却被“技术合规文件”屏蔽,形成“空转”。更深层的是程序正义的置换:AI 决策的不透明削弱了公众与当事人对事实的可验证性,程序中的“对等参与”和“有效质证”被技术门槛悄然抬高——当一方只能提交“结果”,而另一方掌握“过程”,证据不对称会转化为裁判结果的不对称。程序正义的退步,最终会折损裁判的可接受性,侵蚀法治的社会信任资本。
三、困境导向的制度路径
(一)“审计即证据”,技术可审计化与证据转化
人工智能责任认定的最大障碍,是因果链条的断裂。传统侵权法中的归责逻辑要求受害人证明行为、过错、因果关系与损害之间的完整链条,但在深度学习系统中,这一链条往往难以复现。算法的“黑箱化”意味着即便能够确认输出结果存在偏差,也无法解释其在数据输入与参数计算中的具体形成机制。这导致受害人陷入证据贫困,法院也缺乏明确的事实依据。要突破这一困境,就必须将“技术留痕”制度化,并与司法证据规则直接衔接,实现“审计即证据”。
具体而言,应在高风险人工智能系统的准入与运行环节设立强制性日志制度,要求开发者与部署者完整记录从数据输入、模型运行到输出的全过程,并在模型每次迭代与参数更新时同步生成“模型卡”与“数据卡”。这一做法既可以帮助追溯系统运行逻辑,也能在出现纠纷时为司法程序提供可复算的依据。欧盟《人工智能法案》已将“可追溯性”与“日志记录”确立为高风险AI 的强制性义务,中国可以在此基础上进一步强化其司法适用性,将其明确嵌入《民事诉讼法》或《证据规定》中。
值得一提的是,为了防止企业出于利益考虑篡改或隐匿记录,应建立第三方可信托管机制。例如,设立由国家标准化机构或行业协会主导的“算法备案库”,要求企业将关键版本与审计报告在上线时封存,并采用区块链等不可篡改技术进行加密存证。司法机关可在保密令下调取并比对,从而把技术留痕直接转化为司法证据。同时,应当扩大技术调查官制度的适用范围,让具备跨学科背景的专家在司法程序中发挥解释与鉴定的作用,并引入对抗式技术听证机制,让当事人围绕日志与审计结果进行质证,从而提升透明度与程序正义。
在我国,这种“审计即证据”的路径还有更深层意义。我国AI 治理长期呈现“行政强合规、司法弱归责”的格局:企业在行政备案中留痕,但一旦进入司法诉讼,这些材料往往不能直接作为证据使用。通过制度化地把合规留痕转化为可采信证据,可以打通行政监管与司法裁判之间的断裂,使监管端的合规性检查在个案救济中发挥直接作用。这不仅降低了受害人的举证门槛,也能在根本上倒逼企业形成真实、可靠的合规记录,把“合规文件”变成真正可用的“司法凭证”。
(二)“触发式”归责,证明责任与归责结构的重构
在人工智能高风险应用场景下,继续沿用传统的过错责任原则,往往会把受害人推入证据困境。由于算法运行逻辑复杂且不可解释,受害人很难举证开发者或部署者存在过错,这使得案件容易出现“事实损害存在,但责任无法落实”的窘境。为此,应当建立一种“触发式”的举证责任倒置机制:当人工智能系统未能履行应有的合规义务,例如缺乏完整日志、拒绝配合披露或存在无法解释的系统空档时,法律应推定其存在过错,由责任方承担反证责任。反之,如果企业能够证明其严格履行了合规义务并接受了第三方审计,则可以相应减轻责任。这种“合规减责、失范加责”的设计,有助于形成激励结构,促使企业主动提升合规水平。
在责任分配方面,人工智能应当遵循分层分工的原则,避免责任真空或责任过载。开发者应对算法设计缺陷、模型更新与安全漏洞承担责任;部署者应对场景适配、人员培训和人机协作的注意义务负责;数据提供者则应承担数据来源合法性与质量控制的义务。这种层次化的责任体系既明确了不同主体的边界,也避免了单一主体承担不合理的过度风险。此外,对于合同内部的责任分配,虽然各方可以通过合同进行追偿与分担,但对于第三人损害的外部责任,不得以合同条款予以排除。
为了保障该制度的可行性,还需要确立算法证据开示特别规则。例如,当法院认定某一争议涉及高风险 AI时,可以直接发出证据开示命令,要求企业提供相应日志、评测报告与风险评估材料。在执行中,应配合保密令与不利推定制度:一旦企业拒绝提供或恶意毁损,法院可直接认定其不利事实存在。
(三)风险分担机制:强制保险与行业责任基金
人工智能带来的损害往往呈现低概率、高危害、群体性特点,传统侵权救济机制难以充分覆盖。个别受害人即使最终获得胜诉,也可能因责任追溯复杂而耗费大量时间和成本。因此,引入强制保险与行业责任基金的双轨机制,成为弥补侵权法局限的重要选择。在高风险领域,如医疗AI、自动驾驶、金融信贷风控等,应建立强制责任保险制度,要求相关企业必须投保。保险费率应与风险等级、审计评分和事故率挂钩,形成动态调整机制。通过保险定价,将风险转化为成本压力,促使企业在设计和运营环节更加重视风险防控。同时,保险能够提供快速赔付机制,保障小额和标准化损害案件能够在短期内获得救济。
与之并行的,是行业责任基金的设立。基金主要应对因果链难以证明或群体性损害案件,例如算法歧视造成的大规模用户权益受损,或自动驾驶集体事故。基金应采取“先行垫付、事后分担”的运作模式,即受害人可以直接从基金获得补偿,而基金再向相关责任主体进行追偿。这种制度既能弥补司法归责困难导致的救济空白,又能提升社会公众的信赖感。
需要注意的是,基金的运行必须防止道德风险。为此,应建立基金监督委员会,确保赔付标准公开透明,同时通过大数据监测与风险评估来动态调整基金规模。国外经验值得借鉴:美国的“疫苗伤害补偿基金”与欧盟的“环境责任基金”均采取类似模式,为高风险领域提供制度化保障。中国可以借鉴这些经验,在人工智能重点应用场景先行试点,再逐步推广,形成“保险+基金”并轨运行的风险分担格局。
(四)全生命周期监管,准入、监测与沙箱并行
人工智能治理不能仅依靠事后追责,还需要在事前与事中形成有效监管机制。建立全生命周期监管,是确保人工智能风险可控的重要路径。在准入环节,应对高风险AI 实行强制注册与编号制度,要求企业在产品上线前提交风险评估报告与伦理审查材料。这不仅能提前筛查潜在风险,也为后续追责提供备案基础。
在运行阶段,应当建立事件上报与召回制度。企业一旦发现AI 系统存在重大缺陷或引发不良事件,应当立即上报,并采取召回或修复措施。为此,可以设立国家级“AI 不良事件与召回数据库”,集中存储并共享相关数据,以实现跨行业横向学习与纵向追溯。同时,应加强监管科技(RegTech)的应用,利用大数据与人工智能本身进行实时监测,提高监管的精细化和动态化水平。此外,监管沙箱制度是创新与监管平衡的重要手段。通过设立有限范围的实验环境,允许企业在明确边界与可控条件下进行新技术试点。监管部门根据试点情况动态调整合规要求,既避免一刀切,也能通过数据驱动完善标准。这种制度在英国和新加坡已有成功经验,中国也已在金融科技领域试点,完全可以扩展到人工智能领域。
(五)比较法借鉴与本土化整合
国际社会在人工智能治理上已积累了不同经验。欧盟《人工智能法案》以风险分级监管为核心,对高风险系统设置严格的透明度、可追溯与人类监督义务,并配合拟议的《AI 责任指令》,为受害人提供举证便利。其优势在于通过强监管保障了高风险场景的安全,但同时也引发了对创新受限的担忧。英国则采取原则导向+监管沙箱的灵活模式,强调在实际运行中寻找风险与创新的平衡点,这种模式更适合新兴技术的探索阶段。美国虽然尚无统一的联邦立法,但 NIST AI 风险管理框架为企业提供了实践性指南,各州也在算法透明与消费者保护方面进行了有益尝试。新加坡的“AI Verify”机制则结合第三方验证与企业自证,为小国在资源有限情况下探索治理路径提供了经验。
中国的制度选择应当在借鉴的同时进行本土化整合。一方面,中国具备较强的行政资源整合能力,可以在行政合规层面迅速建立统一的行业标准与备案制度;另一方面,中国的司法体系在侵权归责上相对谨慎,需要通过逐步引入举证便利和责任推定来降低制度冲击。未来路径可归纳为“三支点”:强合规(统一标准与备案)、强证据(审计即证据与特别开示)、强救济(保险与基金机制)。优先试点应当放在医疗和金融等数据密集且风险高度外部化的领域,随着审计生态与司法技术逐步成熟,再推广至公共治理与智能制造等更广泛的领域。通过逐步扩展和本土化整合,中国有望在人工智能治理中形成具有示范效应的制度创新。
结语
人工智能作为新兴的社会性力量,正深刻改变着法律运行的环境与边界。它一方面提升了效率,拓展了人类决策的可能性;另一方面,也制造了责任链条模糊、因果关系难证与正义难以落实的复杂困境。面对这种双重性,法律不能停留在被动回应,而应主动在制度设计上作出前瞻性的安排。通过引入技术可审计化机制、重构证明与归责规则、建立保险与基金等风险分担工具,并在比较法经验的基础上结合中国语境进行制度创新,我们能够逐步打破“无人担责”的真空局面,实现技术进步与法律正义的协调统一。归根结底,人工智能并非一个可以完全替代人的主体,而是一种需要被规训、被嵌入制度逻辑的技术形态。法律对其的规制既要保持开放性和包容性,避免因过度严苛而扼杀创新,也要保持原则性和权威性,确保任何损害都能得到公正救济。正如法治的发展历程一再证明的那样,每一次技术革命都为法律带来了新的挑战,但也推动了法律理念与制度的自我更新。人工智能时代的法律责任探索,正是这样一次历史性契机。
参考文献:
[1]彭颖,杨超然,于广军.基于人工智能的临床辅助决策支持系统问责制度探索[J].海军军医大学学报,2025,46(08):963-969.
[2]王圆明,葛俊骁,徐青松.人工