AIGC知识产权归属与侵权认定问题研究
郑天琦 庞玉祺 邱语 杨锦祥 尚祥枝
南京审计大学 210000
一、引言
新科技革命与产业变革中人工智能作为新质生产力与产业深度融合是释放数字化叠加倍增效应、加快战略新兴产业发展的必然选择。从AI 语言模型 T 到视频生成模型S 的 系列生成式人工智能相继问世并广泛应用于智能写作、代码生成、 复等领域,使“生成式人工智能”成为“决策式人工智能”之外人 碧燕目 能技术在训练阶段的数据喂养与利用阶段的内容生成面临现有法律体系下数据来源合法性、内容生成物著作权归属、人格权侵权风险及模型开发者、运营者与使用者多主体交织的侵权责任分配问题。
“人工智能 +′′ 行动政策精神与“可信人工智能”全球共识下应对生成式人工智能技术发展带来的侵权问题、避免其成为“权利清洗器”同时满足产业保障需求已成为理论和实务界热点。本文从当前司法实践中生成式人工智能侵权纠纷裁判思路切入,结合技术工作原理分析侵权认定现实困境,基于算法透明度、责任三分法等理论提出侵权认定考量因素并完善裁判路径,为相关立法和司法实践提供参考。
二、AIGC 可版权性的理论争议与司法实践
(一)独创性与人类智力投入的认定标准
根据我国《著作权法》,作品需为文学艺术科学领域内具有独创性且能以一定形式表现的智力成果;人工智能生成内容(AIGC)是否构成作品而受著作权保护,其核心与难点在于“独创性”之认定。1 依人类干预程度将AIGC 分为“简单指令模式”与“复杂指令模式”:前者用户仅提供笼统指令而缺乏具体表达安排,生成内容难以体现人的独创性表达;后者用户通过多次设置参数、调试修改和个性化选择,使生成内容符合其预期并体现智力投入,因而可能被认定为作品。
司法实践亦反映该认定标准的演进。早期如2018 年“菲林诉百度案”2,虽在客观标准上承认了案涉计算机软件智能生成文字内容的创造性,但进一步适用主观标准阻断了对“独创性”的认定,即软件用户提交关键词进行搜索,应用“可视化”功能自动生成分析报告等行为不能体现其思想、感情的独特表达,该分析报告即使具有一定程度创造性仍不能构成著作权法意义上的作品而否定AIGC 可版权性。而2023 年北京互联网法院审结的“首例 AI 文生图案”3 认定涉案图片系用户通过向 AI 模型Stable Diffusion 输入提示词、设置参数及相应系数并对生成成果进行选择而成,构成著作权法所保护的作品。2024 年 10 月,江苏省常熟市人民法院在“AI文生图第二案”4 中依然遵循了这一裁判思路,肯定了用户使用文生图软件Midjourney 所生成图片的作品属性,以创作者实施的输入并调整提示词、通过Photoshop 软件对 AI 生成图片进行修改等行为为依据,认定其具有独创性。
在确认人工智能生成内容作者身份的理论选择上,有“权利-作者二元论”和“智力贡献论”之分,较于“权利-作者二元论”,“智力贡献论”体现了著作权法适用的灵活性,也能够得到著作权正当性基础的支持。实践意义上,立法层面的规则重构需要经历漫长的论证过程,无法对当下的实践需求作出及时回应,而在“智力贡献论”范畴内明确认定思路及方法则更多是法律适用层面的问题,能够更直接有效地作用于实践困境。人工智能生成内容可版权性的认定方法研究[1]。上述两个国内裁判案例则反映了后者的倾向,即应以“人类智力贡献”作为判别核心,提示词与参数调整被视为人类意志与创造性劳动的具体体现,而非仅技术性操作。
国内外司法实践中的认定趋势
国内外司法实践针对AIGC 可版权性的认定呈现差异化发展态势。美国近年出现多起针对生成式人工智能公司的版权诉讼,如《纽约时报》诉 OpenAI、艺术家诉Stability AI 等案件,指控其未经授权复制受版权保护的文本、图像、代码及音频数据用于模型训练。我国司法层面则通过典型案例逐步确立裁判规则。北京互联网法院2023 年审理的全国首例“AI 文生图”著作权案认定用户通过提示词设计与参数调整体现审美选择与个性判断,其生成内容符合独创性要求而构成作品;2024 年武汉东湖新技术开发区法院及江苏常熟法院亦明确,体现人类智力投入的AIGC 受著作权法保护,凸显对创作者权益的保障倾向。
三、AIGC 著作权归属的多维考量
(一)三元主体结构下的权利分配困境
生成式人工智能侵权责任结构已从传统“平台—用户”二元模式转向“开发者—运营者—用户”三元模式,显著增加了责任界定的复杂性。根据《互联网信息服务深度合成管理规定》,三类责任主体分别对应模型开发者(服务技术支持者)、运营者(服务提供者)及用户(服务使用者);其中模型开发者负责基础模型算法备案,运营者则负责基于该模型的具体产品服务部署。
认定侵权责任需首先明确直接侵权行为的实施主体。模型开发者虽属广义网络服务提供者,但其技术特性与传统适用避风港规则的服务提供者存在本质差异:生成内容由人工智能系统直接输出,而非用户创作上传。因此模型开发者依法需承担“内容生产者”责任,其法律定位更接近内容提供者而非单纯的技术服务通道。
(二)模型开发者与运营者的责任边界
根据《生成式人工智能服务管理暂行办法》相关规定,模型开发者虽被归类为广义的“服务提供者”,但需依法承担“内容生产者”责任;若在侵 x约 论并将其视为适用避风港规则的“网络服务提供者”,则违背避风港制度原 发者直接侵权责任的诉讼存在观点分歧:支持者主张其应基于产品责任 纳入训练数据可能导致侵权生成,法律不应鼓励“版权清洗”行为;反对者则认为数据 非侵权用途”,其技术目的在于构建基础模型而非生产侵权产品,且开发者难以控制用户后续使用行为,除非存在诱导或教唆,否则不应承担责任。
关于产品运营者的责任认定,司法实践存在裁判差异。例如北京互联网法院在某声音人格权侵权案中认定运营者通过API 接口调取并生成内容时主观无过错,故不承担损害赔偿责任;而广州互联网法院在“奥特曼案”中则驳回被告仅通过可编程接口接入第三方服务的主张,判定其应承担侵权责任。
(三)用户协议与权利约定的法律效力
提供AIGC 服务的平台普遍采用“最终用户服务协议”约定著作权归属以规避内容与他人作品实质性相似的侵权风险。在常熟法院审理的涉及“文生图”软件生成的《伴心》图案例中,法院当庭审查了平台用户协议并确认其明确约定生成图片的资产及权利归属于用户。
通过用户协议约定权属虽具实践可行性但仍存在显著问题:用户协议多为平台单方预先拟定的格式合同,用户缺乏实质性协商空间;部分条款可能因违反法律强制性规定而归于无效;不同平台对权利归属的约定存在差异,导致同类AIGC 作品因生成工具不同而面临权属认定分歧,进而影响法律适用的一致性与可预测性。
四、AIGC 侵权认定的现实困境与规则构建(一)输入端与输出端的侵权风险差异
生成式人工智能通过预训练和优化训练等数据训练过程来提升模型性能,这种依赖海量数据输入的技术路径与现有法律秩序产生冲突。例如Stable Diffusion 模型需摄入数十亿张图片作为训练数据,其中包含大量受著作权保护的美术作品或摄影作品,未经授权的抓取与使用可能侵犯复制权或肖像权等人格权。
当前法学研究对训练数据的合法性存在理论分歧。合理使用说主张免费开源AI 训练可视为对作品的转化性使用,而“釜底抽薪”进路则质疑复制权在非传播目的中间复制行为中的适用性。欧盟近期推出的训练数据模板要求公开数据摘要,试图平衡透明度与商业秘密保护,但未能解决个体权利人的举证困境。
权利人在诉讼中面临训练集不透明的挑战,如美国安德森诉Stability AI 案中原告仅能通过第三方网站间接证明作品被使用。这种举证困难导致权利人转向起诉输出端侵权,广州互联网法院在奥特曼案中认定 AI 生成物与原作品构成实质性相似,从而追究服务提供者的责任。这种策略通过生成内容侵权诉讼间接约束训练数据使用,成为当前全球版权诉讼的核心特征。
(二)侵权认定的核心难点
生成式人工智能通过复杂算法对海量数据进行动态交互,其生成过程不同于传统复制或改编行为,这种技术特性导致侵权行为认定面临双重挑战。算法黑箱现象使法院难以区分人类智力贡献与机器自主生成内容,而提示词修改的投入程度缺乏量化标准,进一步模糊了作品认定边界。
在著作权层面,AI 生成往往涉及多位权利人的作品合集,侵权客体具有非单一性特征。商标领域则存在生成内容引发消费者混淆的风险。参见崔国斌:《人工智能生成物中用户的独创性贡献》,载《中国版权》2023 年第6 期[2]。2023 年,北京互联网法院已出现将AI 生成相似声音认定为侵害人格权的判例1,反映出传统权利边界在算法环境下面临重构。2024 年浙江大学数字法治实验室提出“算法透明度梯度”理论,主张根据模型复杂度建立分层认定体系,为破解技术黑箱困境提供了新思路[3]。
(三)分层认定与多元责任规则构建
针对 AIGC 侵权认定困境,需构建分层认定机制与多元责任规则。训练数据获取阶段的输入侵权可探索合理使用豁免机制,在著作权立法中明确非商业性AI 训练对公开数据的运用视为合理使用;内容生成阶段的输出侵权则适用传统规则但需调整过错认定标准。当前学界提出“技术性合理使用”理论,主张将技术不可替代性作为判断基准,为输入端侵权豁免提供法理支撑。应建立技术措施与法律标识的双重机制,运用区块链存证生成过程并强制标注机器创作属性,以此明晰权利归属并降低认定难度。在责任分配层面,需完善多元主体责任分配规则。模型开发者虽属于广义上的网络服务提供者,但应承担"内容生产者"责任;人工智能产品运营者则仍承担服务提供者责任。通过有条件地扩大合理使用解释,探索一套适应人工智能产业发展的过错认定机制和责任分担机制。中国政法大学2024 年发布的《人工智能法治评估报告》进一步提出“责任梯度”模型,依据技术参与度划分从严格责任到过错责任的不同梯度,为司法实践提供细化方案。
五、AIGC 知识产权制度的前瞻性构建(一)法律修订与制度设计建议
推进著作权制度完善的核心在于坚守“激励创作与促进知识传播”的立法宗旨,通过动态调整权利边界实现技术创新与人文价值的统一。我国需加强人工智能领域综合性立法,明确 AIGC 著作权归属与保护范围。具体可建立AIGC 著作权登记制度以提供初步权利证明,并在著作权法中界定其作品构成要件与权利归属。针对司法实践中的争议问题,可通过司法解释统一裁判尺度。华东政法大学提出的“创作过程显性化”理论1,主张将提示词设计、参数调整等人类干预环节作为作品认定的关键依据,为登记制度提供了理论支撑。在立法路径选择上,采用修订现行著作权法增设专门章节的过渡方案,逐步转向制定《人工智能生成内容著作权法》的系统性立法。比较法研究显示,欧盟2025 年《人工智能法案》修正案已尝试将“人类实质性控制”作为权利分配标准,该经验可为我国立法进阶提供参考。这种渐进式路径既能及时回应技术发展需求,又为未来制度演进留出空间。
(二)技术治理与伦理规范协同
在法律制度完善之外,需构建技术治理、伦理规范与行业自律相结合的多元共治体系。技术层面应推动 AI平台嵌入来源追踪与侵权监测等著作权保护功能,通过公开部分生成逻辑使法院能够评估人类智力贡献程度。当前“可解释 AI”技术发展为算法透明度提供了实现路径,使人类主导性判断具备可验证的技术基础。伦理规范建设需制定《文艺创作AI 技术应用伦理准则》,明确禁止AI 内容以人类作者署名、强制标注生成属性并限定AI 在文化遗产等敏感领域的应用范围。中国人工智能学会 2024 年发布的伦理指引提出“文化完整性原则”,要求技术应用不得损害传统文艺传承的严肃性。行业自律机制可通过制定生成内容分类标准与诚信创作公约,建立模型开发者、运营者与使用者的协同治理框架。这种多元共治模式正逐步形成国际共识,如欧盟人工智能法案强调技术措施与伦理准则的协同实施,为我国治理实践提供参考。
(三)国际协调与合作机制
AIGC 知识产权治理的全球性特质要求各国超越单一司法辖区局限,构建国际协调合作框架。我国应主动参与世界知识产权组织、联合国教科文组织等国际平台的规则磋商,推动形成兼顾技术创新与公平性的全球规范,特别关注发展中国家在人工智能产业链中的合法权益。通过双边及多边协议建立跨境保护机制,重点推进三方面协调:构建 AIGC 国际分类标准以差异化设定保护规则,完善跨境侵权证据交换与联合执法流程以降低维权成本,并探索建立安全可信的训练数据国际流通体系。
当前WIPO 正探讨的“生成式 AI 版权问题软法指南” 为国 识形成提供了阶段性框架,其主张根据人类控制程度对生成内容进行分级管理。 提出的跨境监管合作模式,建立各国模型备案信息的互认机制,使训练数据来源合 规性 。这种多层次合作不仅有助于减少法律冲突,更能促进全球数据资源在合法合规前提下的有序利用,为人工智能产业的可持续发展构建稳定预期。
六、结论
生成式人工智能的演进在激发创作生态变革的同时,亦对权利归属、责任界定与利益分配机制形成系统性挑战。当前国内外司法实践仍处于规则探索阶段,亟待构建清晰统一的侵权判定框架以引导技术合规发展。AIGC作品属性的认定应聚焦人类智力贡献程度而非生成工具,需依据“创造性控制”理论判断用户介入的实质性;著作权归属宜采纳开发者、运营者与使用者之间的三元分配模型,避免责任过度集中;侵权判定需区分输入与输出阶段,建立分层认定机制并引入动态责任规则。未来研究可聚焦三方面议题:人工智能生成内容的合理使用边界如何平衡多方主体利益,训练数据合法获取的授权机制设计,以及跨境治理合作路径的探索。构建兼顾创新激励与权益保障的法律框架,是实现技术与创作生态协同发