缩略图
Frontier Technology Education Workshop

关于人工智能治理的行政法问题分析

作者

禹伟

江苏博事达律师事务所 南京 210019

引言:如今步入数字化时代,人工智能技术是时代进步的优良成果,具有模式识别、数据分析等诸多强大的功能,在当前社会中获得广泛关注与应用。然而,人工智能技术的应用也带来一些现实风险问题,影响了社会的正常发展秩序,对此,应优化人工智能的法律规制,关注人工智能治理的行政法问题,探寻有效的处理举措助力人工智能技术安全、健康发展,维护群众权益。

1.人工智能治理的主要行政法问题

结合当前人工智能治理在行政法中存在的问题可知,主要体现在立法、风险评估、监管层面。

1.1 立法体系尚未完善

现阶段,我国人工智能领域的立法体系尚未完善。从法律位阶来看,国家层面虽出台了《生成式人工智能服务管理暂行办法》(2023 年)、《人工智能算法推荐管理规定》等文件,但其并非法律法规,位阶较低,缺乏足够的权威性和稳定性。例如,部门规章在实施过程中可能面临与上位法冲突的风险,且不同部门之间的规定可能存在交叉或空白情况,导致执法标准不统一。

1.2 风险评估机制存在缺陷

从风险评估、管理维度来看,当前机制存在缺陷。在评估程序方面,缺乏标准化的风险评估流程和技术指标。以生成式人工智能为例,其可能引发的数据泄露、算法歧视、虚假信息传播等风险,需要从技术安全性、社会影响性、伦理合规性等多个维度进行评估。但目前不同领域、不同地区的评估程序差异较大,有的侧重技术层面的安全检测,有的则忽视了社会伦理风险的评估,导致评估结果缺乏可比性,存在公信力不足的情况。

1.3 分级分类监管策略待优化

在实际监管阶段,我国尚未形成统一的分级分类标准,导致监管资源配置效率低下。欧盟《人工智能法案》明确将人工智能应用划分为禁止级、高风险级和低风险级,并分类制定了详细的监管措施,如禁止使用社会评分系统等不可接受风险的技术,对高风险的医疗 AI 设备实施严格的事前审批和持续监测应对策略。相比之下,我国虽在部分地方政策中涉及分级支持,但在国家层面缺乏统一的风险分级标准,不同行业、不同地区对人工智能风险的判断和监管措施差异较大。

2.有效应对人工智能治理行政法问题的路径

针对上述行政法问题,需从法律体系构建、风险防控机制完善、监管模式创新等多个维度系统施策,实现技术创新与风险防控的平衡。

2.1 构建协同治理法律体系

一是明确立法目标与原则。设定有效的立法目标,将人类利益放在主体地位,保护人类社会发展,尽可能规避人工智能技术投入使用后形成消极影响的问题。当设定立法原则时,既要达到可预测的效果,又要保证足够的公正、公平,确保技术应用符合伦理标准与社会价值观。

二是完善技术应用标准。研发阶段要求开发者对技术的潜在风险进行评估,并提交伦理影响报告;部署阶段对高风险人工智能应用进行严格的安全认证和合规性审查;使用阶段要求使用者定期报告技术运行情况和风险事件;在退出阶段,明确技术停用后的数据处理、系统安全等义务。

三是强化数据安全保护。数据是人工智能技术的核心生产要素,强化数据安全保护是人工智能治理的重要基础。考虑到数据保护需求,梳理并创建严格的安全法规,为数据的收集、应用等不同环节提供支持,使数据处理环节更加严谨,减少发生数据泄露、随意调用的情况[1]。

2.2 完善风险防控机制

一是严谨控制评估程序,防止受不当流程影响出现评估结果真实性不足等情况。组织建立专门负责风险评估的机构,利用专业经验提前判断风险严重性。例如,国家科技部等 10 部委印发的《科技伦理审查办法(试行)》要求对具有社会动员能力的算法模型开展伦理审查。

二是平衡行政法治与自由裁量权。行政机关的自由裁量权是履行人工智能治理职责的重要形式,但必须将其制约在法治范畴内。首先,明确自由裁量权的行使边界,通过立法详细规定裁量的条件、范围和标准,避免裁量权的滥用,降低执法的随意性。

三是强化全流程责任追究。管理阶段要合理追究相关人员的责任,保证事前纠正及时、事中监管到位、事后尽早救济。例如,国家要求生成式人工智能服务提供者发现违法内容时及时处置并报告。可借鉴深圳 “深度合成服务标识系统”,要求所有 AI 生成内容加载可溯源数字水印,便于责任追溯。

2.3 创新分级分类监管模式

一是划分风险等级。学习欧盟《人工智能法案》经验,针对人工智能应用风险采取划分策略形成不同等级。例如,对危害国家安全、公共安全的应用划入禁止级别;对影响公众健康、财产安全的应用划入重大风险级别;对危害较小的应用划入一般级别。

二是实施精准监管措施。对不同风险等级的应用实施针对性管控措施。例如,重大风险级别的人工智能需在设计、研发、应用全流程接受严格监管,提升评估频率并制定安全标准;一般风险级别则可适当下调监管要求,但需强化数据隐私保护和算法透明度。

三是优化监管资源配置。在实际监督管理阶段,要关注重大等级的风险,无论是在技术的设计阶段,还是在技术的研发、应用阶段,均需要给予有效的管控举措。有关人员需提升风险评估频率,梳理实际风险情况创建严谨的安全标准,当遇到违反规章条例的内容时,给予警示和严格的处罚管理[2]。

结语:在数字化时代,人工智能技术的发展既是机遇也是挑战,要以行政法的基本原则为指导,构建协同治理的法律体系,完善风险防控机制,创新分级分类监管模式,在法治轨道上实现技术创新与风险防控的平衡。随着通用人工智能的不断发展,行政法面临的新挑战将持续涌现,这要求我们保持制度创新的敏锐性和前瞻性,不断完善人工智能治理的行政法框架,为人工智能技术的安全、健康发展提供有力的法治保障,进而为法治管控高质量发展奠定坚实基础。

参考文献:

[1]张宇帆.论人工智能政策与法律协同治理[J].东方法学,2024,(05):187-200.

[2]刘宪权,董文凯.行刑二元:生成式人工智能治理的新范式[J].探索与争鸣,2024,(07):127-136+179.

作者一姓名:禹伟 ;性别:男 ; 出生年月:1990 年 11 月 ;籍贯(具体到市):江苏省常州市 民族:汉族;最高学历:硕士研究生 ;目前职称:三级律师;研究方向:行政法、经济法、民商法。