缩略图
Rural Education

生成式人工智能视域下的法治风险应对路径研究

作者

李卓伦 董生斌 朱翎辉 赵梦迪

大连海洋大学海洋法律与人文学院 116000

摘要:以ChatGPT预训练变换模型为代表的生成式人工智能在发展过程中对社会秩序造成了一定冲击,存在来自科技伦理、知识产权归属等多方面风险挑战。基于此,以《生成式人工智能服务管理暂行办法》的施行为契机,建立健全生成式人工智能服务的相关行为规范和伦理指南,用系统观念和法治方法来推动通用人工智能技术和产业在我国规范健康持续发展,促进其在“安全、可控、可解释、可问责”的基本标准下新发展。以问题为导向,以目标为牵引,在法治框架下尽快建立健全该领域科技伦理监督管理规范,不断完善相应的侵权责任规范体系,重视和强化算法监管,实现多领域、多主体、多制度、多工具的协同联动治理。

关键词:生成式人工智能 法治风险 应对路径

一、问题的提出

不久之前,ChatGPT被美国的OpenAI 公司成功发布,生成式人工智能逐渐走入大众视野。生成式人工智能,是指是一种可以创建各种数据,比如图像、音频、视频的人工智能系统,其核心任务是关于生成高维数据,如文本或图像,或是合成数据。

2014年,生成式对抗网络的出现让生成式人工智能得到发展。例如2018 年微软开发了聊天机器人“小冰”,能够通过文本界面与用户对话。同时,生成式人工智能的研发在国内也有序进行:复旦大学发布的国内第一个对话大型语言模型“MOSS”,百度发布的“文心一言”大语言模型等。生成式人工智能在多个领域发挥重要作用。

同样,也带来诸多问题。从官方来讲,国家互联网信息办公室于2022年11月通过了《互联网信息服务深度合成管理规定》。2023年7月,网信办也出台了《生成式人工智能服务管理暂行办法》,较为系统的对生成式人工智能的管辖范围、主体、数据来源等方面做出了相关规定与治理。在学术界,国内外的学者们也积极研究生成式人工智能可能带来的风险,包括在法律方面可能对法律裁判、侵权等方面产生的冲击。

基于此,本文将针对生成式人工智能可能带来的各方面风险及是否具有应对策略两方面进行回答。

二、生成式人工智能带来的风险

(一)法律风险

1、对著作权的冲击

生成式人工智能的原理是通过数据的汇合形成作品,其中包含已经丧失著作权的作品,也包括大量仍被著作权所保护的作品。如果在生成式人工智能的运行机制下,自动对这些作品进行解析或是对他人的作品进行复制,极有可能造成著作权的侵害。难点在于,如果限制生成式人工智能的发展,在当今世界特殊背景下,我国将处于落后的状态;可如果认为生成式人工智能的行为合理合法,又将面临人民的质问。同时,在侵权部分还面临侵权归责问题。侵权行为的主体是实行侵权行为的人,由于生成式人工智能的特殊性,是由使用者承担侵权行为,还是由发明公司来承担。在《暂行办法》虽然有规定表示,应当由发明公司一方承担更多的责任,但该规定仍有许多争议。

另一个争议则在于其作品是否受到著作权保护。生成式人工智能现今共具有三种模式:第一种是作品完全由生成式人工智能完成;第二种是由自然人辅佐其创作;第三种是自然人输入相关词汇之后再创作。在主体方面,按照《著作权法》的规定,著作权人和作者应当是公民、法人或者非法人组织,并未规定生成式人工智能是否符合保护条件。在客体方面,我国《著作权法》中对作品的概念和内容有着明确的规定。作品有四个构成要件:一是独创性;二是在文学以及艺术等领域内;三是有一定的形式作为载体并表现出来;四是智力成果。而主要的争议点则是是否是独创性,因其运行机制不可避免的面临侵权行为。

综上,生成式人工智能作品在著作权的保护和相关的侵权行为存在许多争议,仍需要进一步的探讨。

2、对个人信息的泄露风险

生成式人工智能的运行机制共分为三个阶段:数据抓取阶段、数据训练阶段、数据输出阶段。以数据抓取阶段为例,该阶段中,有许多采集数据的方法,例如自行采集数据,数据爬取,购买第三方的数据等方式。自行采集数据是由生成式人工智能的提供者自行召集志愿者,采集信息并存入数据库,志愿者不知道该数据的使用去向,就容易导致数据泄露。

很多时候,个人信息的泄露都是在无意间做到的。比如在ChatGPT上输入相关的学业问题,就可能会泄露用户的学校、姓名、专业等信息,这些行为都是未经用户许可就已经完成了数据采集。而随着未来生成式人工智能的广泛应用,其用户数量也在广泛上升,数据泄露的风险也随之上升。

(二)科技伦理风险

1、不良价值观的传播

生成式人工智能将人类社会的各种信息收集起来作为数据库,其中就包括许多文学作品。既包含那些好的作品,同时也包含了具有歧视、虚假等不良价值观的作品,生成式人工智能无法分辨作品的价值导向,就可能导致用户在使用时,接收到具有不良价值观的作品。

2、使用时产生的风险

由于生成式人工智能背后的算法极为高超,能够代替人类完成许多工作,例如帮助用户写论文,有关报告等相关内容。可同样不可避免的是,也会有人运用生成式人工智能去制造谣言或者是发布虚假信息,造成社会混乱。

三、应对路径

1、完善法律法规,加强对生成式人工智能的安全监管

现有的法律体系在发展生成式人工智能的社会背景下有明显争议,革新法律刻不容缓,主要是知识产权和信息泄露两方面。知识产权部分,围绕生成式人工智能作品是否受到保护和著作权被侵犯两部分。可以将著作权的主体进行细化,生成式人工智能背后的算法机制让其具有类人思想,著作权主体部分可商榷,而在著作权被侵犯部分,可从生成式人工智能提供者入手,通过科技的精进以及内容的细化,完善监督机制,对生成式人工智能的数据库进行严格筛选,减少侵犯他人著作权风险。

2、加速生成式人工智能的发展

在生成式人工智能出现后,产生的科技伦理问题,是由于该科技发展的不健全。当今社会对于生成式人工智能方面的技术是出于开放状态,但中国的大多数核心技术仍然是外国的,并非本国。当今局势变幻莫测,很难保证曾经的“芯片卡脖子”事件不会发生,所以,让中国有独属于自己的核心技术仍是重中之重,当本中国掌握了自己的核心技术后,国家政策的实施,技术方面的改进便有了进展的机会。

四、结语

生成式人工智能已经深入人民的生活,便利了人民生活的同时又不可避免的冲击了现有的规则,重要的是,我们要以发展的视角去看待生成式人工智能的出现,不是盲目限制生成式人工智能的发展,要直面困难,将生成式人工智能真正变成人类可控的发展工具。运用合理的法律思维,以法律为笔,人工智能为墨,蓝星为图,在神州大地上绘出新篇章。

参考文献

[1]生成式人工智能作品版权归属问题研究.韩雨潇.(扬州大学.法学院,江苏.扬州 225127)扬州大学学报(人文社会科学版)2023年7月第27卷第4期

[2]生成式人工智能在司法中的运用:前景、风险与规制.郑曦.中国应用法学2023年第四期

[3]国家安全视阈下生成式人工智能的法治应对——以ChatGPT 为视角.孔祥承.法治研究2023年第5期

[4]ChatGPT 模型的法律风险及应对之策.邓建鹏.朱怿成(1.中央财经大学 法学院;2.金融科技法治研究中心,北京 100081;3.北京大学 法学院,北京 100871)新疆师范大学学报(哲学社会科学版)第 44卷第5期2022年9月

[5]生成式人工智能数据风险的法律保护与规制研究———以 ChatGPT 潜在数据风险为例.刘霜,张潇月( 天津大学 法学院,天津 300072)贵州大学学报(社会科学版)2023年9月第41卷第5期

[6]促进生成式人工智能规范发展的法治考量及实践架构——兼评《生成式人工智能服务管理暂行办法》相关条款.陈兵.中国应用法学2023年第4期

大连海洋大学2023年大学生创新创业训练计划项目《浅析ChatGPT等生成式人工智能对法律领域的挑战与机遇》项目编号:X202310158018