生成式人工智能侵犯数字人权的法律责任研究
张鑫宇 魏超峰 刘帅家 白梓彤
辽宁科技大学 辽宁鞍山 114051
引言
自联合国教科文组织(UNESCO)国际人权研究所负责人,捷克法学家卡雷尔·瓦萨克(Karel Vasak)首次将人权划分为三代,第一代人权:公民与政治权利(Civil and Political Rights);第二代人权:社会、经济和文化权利(Economic,Social,and Cultural Rights);第三代人权:集体权利与发展权(Collective Rights or Solidarity Rights)此种人权的代际划分通常依据历史发展、社会需求和技术进步,近年来,随着科技的发展,一些学者提出了第四代人权的概念,即数字时代的人权(Digital and AI Era Human Rights),因数字时代发展带来的技术赋能,使得权利与权力在全球化的推进当中,共同碰撞、对冲与试验,从而获得非凡的壮举。但于进步与跨越的同时,与之伴随的,也有取之不尽的问题亟待解决。
生成式人工智能带来的侵权问题,主要集中在权利边界模糊和责任认定复杂两大方面。鉴于技术开发者、平台运营者和用户在侵权链条中的复杂角色,现有法律体系在侵权主体认定与归责机制上存在空白和争议。本文通过梳理生成式人工智能技术特征及其对数字人权的侵害形式,结合侵权责任法理,尝试构建科学合理的归责机制,以期为完善数字人权保护提供理论支撑和实践指导。
一、生成式人工智能对数字人权的侵害表现
隐私泄露、安全问题和数字鸿沟是生成式人工智能所导致的常规性伦理风险,提示工程在训练生成式人工智能的过程中同样会出现这类伦理风险,并且在提示工程自身特性的影响下,这类常规伦理风险会呈现出新的特点。[1]生成式人工智能在侵害过程中,往往对以下权利侵害较为严重,第一,隐私权的侵害,“生成式人工智能在训练和生成过程中常常调用个人数据,尤其是深度学习中的面部识别和语音合成,未经授权抓取社交媒体数据,可能导致隐私泄露。如某些算法利用公开数据进行面部匹配,侵害了个人信息自主权。”第二,人格权和名誉权的侵害“通过深度伪造技术,生成式人工智能可以虚构视频或语音,将无关个人置于不实场景中。此类仿真视频广泛传播,极易引发社会误解,对当事人造成名誉损害,甚至导致人格权受损。”第三,数据自主权的弱化,“在生成式人工智能技术链条中,个人数据被算法模型不断利用和衍生,数据主体对其个人信息缺乏有效控制,难以实现数据自主权。”第四,表达自由与平等参与权的挑战,“算法偏见导致生成内容存在性别歧视或种族偏见,技术巨头在算法控制中的垄断地位,使得普通用户在数字空间中的表达受到限制,难以实现平等参与。”第五,虚假信息的泛滥,“生成式人工智能生成虚假新闻或篡改事实的文本内容,影响公共舆论,甚至对司法程序构成干扰。这种虚假信息传播的不可控性,容易引发社会恐慌和道德危机。”
二、生成式人工智能侵权责任的法律构建
(一)侵权主体的多元化及其认定
生成式人工智能的侵权行为往往涉及多方主体,包括技术开发者、平台运营者、数据提供者和普通用户。由于生成式人工智能技术链条长、角色复杂,合理认定侵权主体成为构建法律责任体系的关键环节。第一,开发者的直接责任,“生成式人工智能的开发者在算法设计和模型训练中处于核心地位。其算法框架和数据集选择直接影响生成内容的合法性与合理性。因此,当算法偏见、数据泄露或深度伪造行为发生时,开发者应承担直接责任,尤其在算法缺陷、数据采集不合规或伦理审查不足的情况下。”第二,平台运营者的管理责任,“生成式人工智能技术主要通过平台进行部署和传播。平台作为技术载体和内容分发方,负有监督和管理义务,尤其在内容审核和违法行为防控方面具有不可推卸的责任。”第三,用户的直接侵权责任,“用户作为生成式人工智能工具的直接使用者,其利用生成技术进行诽谤、虚假宣传或侵犯他人隐私,构成直接侵权。”第四,数据提供者的辅助责任,“在一些生成式人工智能侵权案件中,数据提供者对模型训练数据的合法性和准确性负有审核责任。如果数据来源不合法或具有偏见,导致生成内容侵权,数据提供者需承担辅助责任。”
(二)侵权责任的归责原则
随着人工智能的发展,黑箱一词普遍运用在各学科方面,其中我们可知,人脑“黑箱”基本都是个别性的、随机性的、不断变化的,而算法黑箱则是普遍性的、连续性的、稳定性的;人脑“黑箱”是一种难测的自主判断,算法黑箱则是一种可控的必然选择[2]。固然,生成式人工智能技术链条复杂,侵权责任的认定应结合实际情形,合理适用不同归责原则。例如,一,过错责任原则,“在大部分生成式人工智能侵权案件中,开发者或平台未尽注意义务或存在主观过失的,应依据过错责任原则进行归责。例如,算法开发者未进行数据合规性检查,导致用户隐私泄露,应依法承担侵权责任。”二,严格责任原则,“对于生成式人工智能在高风险领域(如生物识别、深度伪造)造成的严重后果,即使开发者或平台不存在主观过错,依然应承担严格责任。此原则旨在强化对技术高危害性的法律约束。”三,无过错责任原则,“在少数特定场景,如平台作为中立技术服务提供者,尽管已履行审核义务,仍因用户恶意使用生成工具造成侵权,可考虑适用无过错责任,以减少平台的不当负担。”四,风险分担原则,“由于生成式人工智能侵权行为链条复杂,各方主体之间应依据实际过错和行为关联性共同分担责任。通过风险分配机制,将技术提供者、平台管理者和使用者的责任合理划分,达到公平性和效率性的平衡。”
结语
生成式人工智能的迅猛发展在推动技术进步的同时,对数字人权保护提出了严峻挑战。在权利边界模糊、侵权责任认定困难的现实背景下,完善法律体系显得尤为紧迫。通过明确侵权主体、细化归责原则、强化法律规制,可以在技术进步与人权保护之间实现有效平衡。未来,立法者应持续探索并完善相关法规,以应对人工智能技术发展所引发的新型法律问题。此外,应建立跨学科协作机制,整合技术、伦理与法律资源,确保法规的前瞻性与适应性。同时,加强公众参与和伦理审查,完善监管框架,以有效应对生成式人工智能的潜在风险,从而在保障数字人权的基础上,促进技术的可持续发展。
注释
[1]参见王少:生成式人工智能提示工程的伦理风险与规制,科学学研究,2024
[2]参见马长山:智慧社会背景下的“第四代人权”及其保障,中国法学,2019
本文系:2025 年本科生创新创业基金支持项目:生成式人工智能侵犯数字人权的法律责任研究——侵权主体认定与归责机制探析
张鑫宇,男,汉族,籍贯:湖南省醴陵市,学历:本科生在读,单位:,研究方向:法学
魏超峰,男,汉族,籍贯:河南省安阳市,学历:本科在读,研究方向:法学
刘帅家,男,汉族,籍贯:河南省商丘市,学历:本科在读,研究方向:法学
白梓彤,女,蒙古族,籍贯:内蒙古兴安盟乌兰浩特市,学历:本科在读,研究方向:法学