大模型生成内容法律伦理风险审查规制路径:基于《生成式人工智能服务管理暂行办法》的深度剖析
肖淇月
四川大学 610200
【摘要】生成式人工智能的快速发展和应用进一步放大法律在技术风险治理上的滞后性。为回应产业发展需求、规避潜在风险,有必要建立健全针对生成式人工智能生成内容法律伦理风险的审查规制路径,保障其健康发展。
【关键词】人工智能、《暂行办法》、法律伦理风险
一、引言
近年来,大模型技术凭借强大的学习和生成能力,在自然语言处理、计算机视觉、智能交互等多个领域展现出巨大应用潜力,广泛渗透到人们日常生活和社会经济的各个层面,成为推动科技创新和产业变革的重要力量。随着大模型与人类社会的深度融合,逐渐衍生出隐私保护、算法偏见、知识产权等多方面的风险问题。人工智能安全发展的目标,在于更好地造福人类社会,为此,各国针对人工智能的法律规制日渐强化。斯坦福大学发布的《2023年度人工智能指数报告》显示,2016至2022年间全球已有31个国家颁布了共123项与AI有关的法案。
二、国内外研究治理现状
国外在大模型生成内容的法律与伦理风险研究领域起步较早,欧盟和美国尤为突出。欧盟在人工智能监管领域处于领先地位,其2024年通过的《人工智能法案》以人工智能系统对《欧洲联盟基本权利宪章》所保护的基本权利的影响程度为风险分类依据,构建了以风险分级管理为核心的监管框架,对高风险人工智能系统提出严格要求。美国则采取鼓励创新与适度监管相结合的策略,通过分散立法和行业自律规范技术发展。同时,美国政府通过行政命令和政策文件推动人工智能应用,强调数据隐私保护和算法公平性。然而,欧盟《人工智能法案》在风险定义和评分上存在模糊性,可能导致不同成员国监管标准不一致;美国的分散立法模式则易产生监管漏洞,部分企业可能借此规避责任,削弱监管效果。
中国也高度关注人工智能发展的安全问题。为规范人工智能服务发展并应对大模型技术风险,2023年颁布了《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)。此外,国内对大模型生成内容的法律伦理风险研究逐渐增多。2022年,生成式人工智能技术进入公众视野,相关法律风险研究随之兴起。学者江琴、左晓栋等指出生成式人工智能面临算法、数据、就业、知识产权等法律伦理风险[]。随着研究深入,学界将风险类型化,聚焦于国家安全、歧视性内容、商业违规及侵犯公民权益等问题。张进[]等学者分析了生成式人工智能对知识产权和商业秘密的挑战,王大志、张挺[]等学者则关注个人信息存储与隐私权保护。当前,学者们围绕生成式人工智能的法律价值取向提出“以人为本”“计算正义”“社会有益”等原则。同时,我国立法与监管逐步深化,陈宏志、林秀峰等设计了自监督智能评估系统[];严驰[]、高志宏[]等建议将标准建设与法律协同治理结合,构建分层治理体系;孔祥承提出建立国家数据局统一监管,优化数据行政处罚手段。[]然而,随着大模型技术的快速发展和应用场景的拓展,新问题不断涌现,《暂行办法》在实施中面临诸多困难与不足。如何基于《暂行办法》构建科学、有效的审查规制路径,已成为学术界与实务界共同关注的焦点。
三、大模型生成内容的法律伦理风险类型
(一)大模型生成内容的技术原理与特点
大模型的核心技术基础是深度学习,其中Transformer架构起到关键作用。该架构于2017年被提出,创新性地引入多头注意力机制,使模型在处理输入序列时能从不同角度同时关注输入信息,有效捕捉文本中的长距离依赖关系。相比传统循环神经网络(RNN)和卷积神经网络(CNN),Transformer在并行计算和长序列数据处理能力上具有显著优势。大模型生成内容具有多样性和高效性两大特点。多样性体现在其能够根据指令生成文本、图像、音频等多种形式的内容,高效性表现为其可在短时间内生成大量内容。但这也带来了内容质量参差不齐和潜在滥用的风险,增加了监管难度。
(二)法律伦理风险概述
1. 国家安全风险
数据安全与国家关键信息泄露。在数字化时代,数据成为关键生产要素,对于国家发展和安全至关重要。大模型的训练依赖海量数据,其中可能包含国防战略布局、能源设施分布、金融核心数据等国家关键信息。若在数据收集、存储、传输或使用过程中被恶意利用,将对国家安全构成严重威胁。以数据存储为例,鉴于当前全球人工智能技术竞争与地缘政治交织的复杂态势,出于商业竞争或窃取核心技术数据等目的,针对高科技企业的网络攻击呈现出愈演愈烈的趋势,甚至不乏一些国家背景的黑客组织,试图通过攻击手段遏制其他国家高科技产业发展。DeepSeek作为中国人工智能公司深度求索推出的先进大模型,其发布后受到美国政府的高度关注,多次遭遇黑客攻击。
大模型生成的煽动性内容,如颠覆国家政权、分裂国家、破坏社会稳定等信息可借助互联网迅速扩散,将严重威胁国家安全。在英国南港骚乱事件中,人工智能在激发暴力行为方面的作用显著。持刀伤人事件发生后,社交媒体上开始迅速传播人工智能生成的图像。这些图像由极右翼组织制作,旨在激起公众愤怒,鼓动人们参与暴力抗议活动,凸显了人工智能在恶意用途中的潜在危害。此外,大模型生成的内容可能潜移默化地传播极端思想、分裂主义等有害观念,长期侵蚀公众价值观和国家认同感,削弱国家凝聚力,对国家安全构成隐蔽且长期的威胁。这种影响一旦形成,短期内难以消除。
2. 意识形态风险
人工智能技术的本质及其内嵌的规则决定着人工智能承载着意识形态的属性,表征着意识形态的功能。[]这一功能深刻影响着政治法律、思想道德等上层建筑领域,改变甚至颠覆人们的价值观念、伦理体系和行为取向,使一些在人们看来习以为常、司空见惯的观念、价值等面临着空前的危机和困境[],由此阻碍我国主流意识形态传播过程中引领、整合、凝聚和解释等作用的发挥[],使得人工智能在主流意识形态传播方面的潜在风险日益显现。这种“潜在风险”样态主要表现在以下几个方面:人工智能导致意识形态传播“去中心化”,主流意识形态的政治话语面临“失声”风险;人工智能导致媒体信息真伪难辨,主流意识形态的内容传播可能面临“失真”风险;人工智能解构传统社会伦理规则,主流意识形态传播的道德权威可能面临“失落”风险;人工智能的快速迭代更新与立法的相对滞后,主流意识形态传播的法律规制可能面临“失信”风险;人工智能打破传统意识形态管理模式,意识形态的传播治理可能面临“失效”风险。[]
3. 歧视性内容风险
数据是大模型训练的基础,若训练数据存在偏见,模型生成的内容可能具有歧视性。数据偏见的来源主要包括两方面:一是数据收集过程中受地域、文化、社会结构等因素影响,可能导致某些群体数据过度代表或代表不足;二是数据标注过程中,标注人员的个人偏见和认知局限可能导致标注不准确,使模型学习到错误信息。歧视性生成内容会严重限制特定群体的发展机会,对其就业、教育、医疗等权益造成直接侵害。例如,亚马逊的招聘算法因训练数据中男性在某些职位上占比过高,将性别差异误判为能力差异,在评估女性简历时自动给出较低评分,损害了女性的平等就业权益。
4. 侵权内容风险
大模型在数据收集和处理过程中常涉及大量个人信息。若未征得用户同意并采取安全措施将收集的语音数据、地理位置、面部识别信息等用于模型训练会侵犯个人信息权益,更甚者可能导致用户遭受诈骗、骚扰等风险,违反了《中华人民共和国个人信息保护法》等相关法规。此外,人工智能输入端、处理过程及输出端都涉及知识产权问题。以输入端为例,用于人工智能训练的数据或文本很大一部分受著作权等知识产权保护,基于交易成本巨大等原因,人工智能开发者无力一一获取训练数据或文本的授权,极易引发侵权行为,具体涉及训练数据保护的著作权、商业秘密等方面的知识产权问题。[]
四、《暂行办法》视角下人工智能发展的法律困境
第一,规制效果不足。尽管《暂行办法》建立了相关机制,但实际执行效果欠佳。部分服务提供者利用加密数据传输、隐藏算法细节等技术手段规避监管,增加了监管难度。同时,由于监管资源有限,小型服务提供者难以得到充分监管,违规行为频发。此外,部分监管人员对《暂行办法》理解不足且缺乏大模型技术知识,难以准确判断服务提供者行为是否合规,影响了规制效果,法律伦理风险未能有效遏制。
第二,风险定量评估难。当前,大模型生成内容的风险评估缺乏科学统一的指标体系,多依赖主观判断和经验进行定性评估,不同评估主体的标准和方法差异较大,导致评估结果缺乏可比性和可信度。这使得监管部门难以制定科学的监管政策,无法针对不同风险等级采取差异化监管策略,既降低监管效率,又制约技术创新发展。此外,现有评估方法难以全面反映大模型生成内容的复杂性和多样性,无法准确分析风险间的关联与影响,难以为监管提供有效支持。
第三,领域立法趋势模糊。人工智能领域立法呈现碎片化状态,缺少一部统领性基本法律,《暂行办法》与其他相关法律法规缺乏协调统一,部门法规定存在交叉冲突,法律规制缺乏系统性和前瞻性,法律适用不明确,无法为行业发展和监管提供明确框架。随着技术快速发展,新应用场景和商业模式不断涌现,立法滞后性凸显。
五、审查规制路径的构建与完善
(一)构建量化评测体系
1. 评测指标选取
构建科学合理的评测指标体系是精准评估大模型生成内容法律伦理风险的关键。从法律合规性、伦理道德性、社会影响性三个维度选取指标,确保评估全面且具针对性。
法律合规性维度,数据合法性是核心。大模型数据收集应严格遵循相关法律,获取用户明确授权并遵循最小必要原则,防止过度收集;存储和使用数据时需采取加密等安全措施,使用第三方数据应确保来源合法。算法合规性同样重要,需秉持公平、公正、透明原则,避免歧视性设计,在关键应用场景中要具备可解释性。生成内容必须合法,不得包含违法信息,且需尊重知识产权。
伦理道德性维度,生成内容需符合社会公德,传播积极价值观,抵制低俗、暴力等不良信息。应用于特定专业领域的大模型应严守职业道德规范。
社会影响性维度,需着重评估生成内容对社会秩序、公共利益和舆论导向的影响,关注生成内容是否会扰乱公共秩序,影响公共安全及社会可持续发展,以及是否误导公众认知、影响主流价值观。
2. 评估方法与模型
采用层次分析法(AHP)确定各评测指标权重。构建层次结构模型,将评估目标分为目标层、准则层和指标层。通过专家打分构建判断矩阵,计算特征向量和最大特征根得出各准则和指标权重,同时进行一致性检验,确保权重科学合理。
运用模糊综合评价法(FCE)构建评估模型。将大模型生成内容在各指标上的表现模糊量化,划分低风险、较低风险、中等风险、较高风险和高风险五个等级,确定其在不同风险等级的隶属度。通过模糊变换得到综合评价结果,准确判断风险等级,为监管决策提供科学依据。
(二)完善法律治理
1. 明确法律责任主体
在大模型生成内容的生态中,明确模型提供方、平台方和用户的法律责任是构建责任体系、防范风险的基础。模型提供方作为关键主体,承担数据安全保障、算法合理性和内容合法性审查责任。应建立严格的数据管理机制,确保数据来源合法、存储和传输安全;设计并训练算法时应避免歧视性结果;通过技术与人工结合的方式审查生成内容,确保其合法合规。平台方需履行信息审核、管理和监督职责。建立健全内容审核机制,实时监测并处理违法违规信息,加强用户行为管理,建立信用评价体系并对违规用户予以处罚。用户使用大模型时,需确保指令和传播内容合法合规,不得传播违法违规信息。
2. 加强部门法协同规制
刑法、民法和行政法在大模型治理中各司其职。刑法作为最后防线,应严惩利用大模型危害国家安全、侵犯公民人身权利和知识产权等严重犯罪行为,发挥刑罚威慑作用;民法通过完善侵权责任制度,明确生成内容侵权的归责原则和责任承担方式,保障用户个人信息和知识产权人权益,平衡各方利益;行政法则通过严格审查服务提供者资质、加强日常监督检查、依法处罚违规行为,规范市场秩序,推动大模型技术健康发展。
3. 推动《人工智能法》的制定
随着大模型技术快速发展,制定《人工智能法》迫在眉睫。该法应明确以促进技术健康发展、保障各方权益、规范技术管理为立法目的,确立安全、公平、透明、责任等基本原则。构建涵盖数据管理、算法治理、安全评估和责任界定等关键领域的法律框架。规范数据处理全流程,保障数据主体权利;建立算法审查备案制度,强化高风险算法监管;构建安全评估体系,定期评估大模型安全性;细化各主体法律责任,确保责任清晰可执行,为大模型技术发展提供坚实法律保障。
(三)强化行政监管
1. 设立专门监管机构
为有效应对大模型生成内容的复杂风险,需设立具备统筹协调、专业监管和高效执行能力的专门监管机构,全面监管研发、训练、应用各环节。在研发阶段,严格审查企业资质、技术实力、数据管理能力和伦理审查机制;训练阶段,重点监管数据来源和使用,确保数据合法、无偏见且标注规范;应用阶段,持续监督服务提供者,保障关键领域应用安全可靠运行。该机构应被赋予充分权力,并配备跨学科专业人员,提升监管能力。
2. 融合技术治理手段
融合先进技术治理手段可提升大模型监管效率和精准度。通过算法审计检测算法偏见和安全漏洞,监管机构可分析算法代码并责令企业整改优化;利用实时监测技术嵌入平台模块,收集运行数据并预警异常,便于及时介入;开发人工智能辅助监管系统,自动分类和评估风险,提高监管效率和风险识别准确性。同时,建立安全漏洞检测和修复机制,定期检测系统并修复隐患,确保监管与技术发展同步,有效防范风险。
(四)提升社会共治能力
行业协会应在大模型治理中发挥引领作用,推动行业自律和规范制定,组织企业、专家学者共同参与,制定高于法律法规标准的自律规范。
六、结语
大模型技术的发展不可阻挡,法律规制必须与之紧密相随。《暂行办法》的出台无疑是我国规制大模型技术风险的重要尝试,但仍存在诸多不足。只有持续关注技术动态,及时调整策略,才能为人工智能时代的法治建设提供坚实保障,使其真正成为推动社会进步的有益工具。
参考文献:
[1] 江琴,左晓栋.人工智能伦理审查与监管初探 [J]. 中国信息安全,2023, (5).
[2] 陈宏志,林秀峰.一种辅助决策智能体及与生成式 AI 的联合应用 [J]. 计算机技术与发展,2024, (10).
[3] 高志宏.回应与超越:生成式人工智能法律规制 —— 以《生成式人工智能服务管理暂行办法》为视角 [J]. 社会科学辑刊,2024, (5).
[4] 孔祥承.国家安全视阈下生成式人工智能的法治应对 —— 以 ChatGPT 为视角 [J]. 法治研究,2023, (5).
[5] 单晓光.新科技革命背景下人工智能知识产权问题的立体因应 [J]. 知识产权,2025, (1).