缩略图
Frontier Technology Education Workshop

论生成式人工智能在网络安全等级保护测评中的应用范式与治理路径

作者

何浩

武汉安域信息安全技术有限公司 湖北省武汉市 430070

伴随着数字化的加快,网络安全等级保护测评变成了保证网络空间安全的重要环节。生成式人工智能依靠着自己的大内容生成、大语义理解、大态势感知能力,给测评工作带来新的变革契机。但是其使用过程中也会带来数据泄露、算法被滥用等问题。如何在发挥其优势的同时做好风险防控,成了当务之急。文章从应用范式和治理路径两个方面展开研究,给安全可控的测评体系建设提供思路。

一、生成式人工智能在网络安全等级保护测评中的应用范式

(一)威胁检测与精准预警

随着生成式人工智能技术的迅猛崛起,网络安全面临前所未有的机遇与挑战。生成式人工智能能够生成高度逼真的文本、图像、代码等内容,这不仅为网络攻击者提供了新的手段和工具,使其攻击更加智能化、隐蔽化和多样化,同时也为网络防御者带来了创新的思路和方法,为提升网络防御的效率和效果提供了技术支持。传统网络安全检测技术主要依赖于特征匹配和规则库。然而,生成式人工智能生成的恶意内容往往具有高度的动态性和多变性,难以通过预先设定的固定特征和规则进行有效识别。而生成式人工智能可通过深度学习分析恶意内容的潜在模式与行为逻辑,实时捕捉新型威胁特征,提前预判攻击路径,为等级保护测评提供动态防御依据,有效弥补传统检测技术的滞后性与局限性。

(二)防御响应与主动防御

生成式 AI 模仿攻击者行为来产生防御策略,做到自适应安全防护。像中国信通院开发的 PPDR 动态防御模型,把生成式AI 的入侵检测,防火墙以及蜜罐技术融合在一起,从而做到防火墙规则动态调整响应时间降至毫秒级。在代码层面上,AI 可以自己产生补丁去修复没有公布出来的漏洞,针对漏洞的自动修补措施,把漏洞修补时长缩减到了平均72 小时以内,缩短了到4 小时。在防御响应中,AI 驱动的SOAR 平台可以自动隔离受到感染的机器,封堵恶意的IP,在攻击溯源的过程中也会形成攻击链可视化报告帮助安全团队快速定位攻击源。亚马逊云科技的“生成式AI 安全范围矩阵”,又把防御细化到应用层,它通过剖析API 调用序列,可识别像产生虚设订单来骗取折扣之类,属于业务逻辑滥用的行为。

(三)数据增强与精准分析

生成式 AI 借助数据合成技术加强模型的泛化能力,即扩大训练集。网络安全等级测评,AI 可以对《网络安全法》的模拟攻击数据,解决了缺乏实际攻击数据的问题。像FortiAI 就利用生成10 万级变种恶意软件样本,得到训练出的检测模型对零日攻击识别率可达 92% 。数据增强也被应用在日志的分析环节,能够对各种日志格式自动进行分析,将安全事件信息用标准化描述表达,防火墙日志和终端日志和云日志相关联进行分析,识别到跨越平台的攻击路径。

二、生成式人工智能在网络安全等级保护测评中的治理路径

(一)技术创新与安全加固

生成式AI 安全风险是由于模型结构的脆弱性,例如 Transformer 模型的注意力就很容易受到对抗样本的影响从而生成与预设不一样的内容。技术加固需从模型层、数据层和系统层并行:模型层用对抗训练的方法,在训练数据里注入梯度扰动,使得模型更加鲁棒;数据层使用差分隐私算法,往训练数据上加噪声,避免敏感信息暴露;系统层搭建立AI 安全沙箱,将生成式AI 与主要业务隔离开来, 限制其访问和数据流动的范围。以谷歌的“安全AI 框架”,使用动态模型验证的方法,实时检测模型输出的偏差,在发现有异常的生成行为之后马上执行回滚的动作,保证系统的稳定。

(二)法规标准与监管体系

对生成式人工智能的监管应该搭建起“法律-标准-指南”三级的监管架构。从法律角度来说,厘清AI 生成内容的版权归属以及责任人问题,就欧盟《人工智能法案》来看,该法案把生成式AI 归入高风险系统,规定开发方承担起数据透明度与算法可解释性的责任。从标准上来说,制订网络安全等级保护测评中AI 技术的专门标准,例如ISO/IEC27001 附录,规定生成式AI 在数据加密、访问控制、日志审计等各方面技术规定。从监管方面来讲,要形成跨部门合作机制,由网信办、工信部、公安部联合组成AI 安全审查委员会,针对关键信息基础设施中的生成式AI 应用施行强制的安全评估,没有通过评估的系统不可以上线使用。

(三)伦理规范与责任界定

生成式 AI 有伦理风险,算法歧视、深度伪造、隐私侵犯都要注意, 并用伦理准则加责任机制来约束。伦理准则上参考《人工智能伦理治理标准化指南》,对AI 开发者的不伤 假信息以及生成带有恶意的代码或者伤害到他人的信息。责任划分要分清技术提 技术提供方要对模型训练所用数据是否合法负责,保证数据来源可以被追寻到,并且无偏见;使用方 生成的内容是否符合规则负责,建立内容检测系统,杜绝滥用。OpenAI 通过“使用政策”明确规定不能产生仇恨言论、假新闻等等,对于违规用户实行封号处理。

(四)多方协同与生态共建

生成式 AI 安全治理要塑造起“政府-企业-学术界-公众”四方合作框架。政府要起到主导作用,做好战略规划和政策引导工作,像创建AI 安全专项基金,资助高校以及科研机构去做核心技术的研究等等。企业要成为技术落地的主体,内部建立起安全的管理架构,创建AI 安全委员会,统筹技术研发与风险评估并做好应急处理,也要推动与行业的相互合作,利用开源社区把漏洞信息及解决办法公开共享出去,从而提高整体的防御水平。学术界关注前沿技术突破,研究联邦学习,同态加密等隐私保护技术,减少数据共享的风险;开发AI 安全评价工具,给监管机构给予技术支持。公众参与是治理生态中的重要一环,要靠科普教育来加强公众对AI 风险的认识,提倡大家积极举报,营造出一种社会共治的氛围。

(五)风险评估与动态调整

生成式 AI 风险是动态的、不确定的,要形成不断评估、不断调整的机制。风险评估需覆盖技术、业务、法律、技术三方面:技术上评判模型漏洞、数据泄露等问题,业务上剖析AI 应用对业务流程带来的影响,例如自动化决策带来的伦理冲突等,法律上查看是否合规,保证数据保护、知识产权等相关规定得以执行。评价方法采用“定性+定量”的评价方式,用威胁建模的方式对风险概率以及影响程度加以量化,结合专家评审的方式来发现可能存在的风险。动态调整机制有两方面内容,一是技术迭代,按照评估成果改善模型架构,增添注意力机制可视化解析器,增强模型的可解释程度,二就是管理上的优化动作,调整安全管理方面的策略与流程,比如削减安全核查的时间长度,由以往的年度审计调整为季度审核。

三、结束语

生成式人工智能给网络安全等级保护测评带来技术上的更新和效率的提高,但是它的使用也会有数据安全,算法偏见等挑战。通过技术创新、完善法规、遵循伦理、多方合力、动态评估这些方面的治理之路,就可以创建起一种安全而又可控的测评体系。将来,要一直留意技术研发走向,改进改善策略,推动形成类人工智能在网络安全方面健康良性生长,给数字中国创建给予有力支持。

参考文献:

1]罗富章.人工智能技术在网络安全领域的应用分析[J].建筑技术科学,2020,37(06):45-49.

[2] 方滨兴, 时金桥, 王忠儒, 等. 人工智能赋能网络攻击的安全威胁及应对策略[J]. 中国工程科学,2021,23(03):60-66.

[3] 顾杜娟, 杨鑫宜, 王星凯, 等. 浅析人工智能技术在网络安全领域中的应用[J]. 中国信息安全,2023,41(05):60-64.

[4]唐荣俊.人工智能技术在网络安全中应用优势与策略[J].建筑设计及理论,2023,44(11):72-76.

[5]张庆国.生成式人工智能内容安全风险分析与安全机制探讨[J].人工智能,2024,45(02):79-86.