缩略图

生成式人工智能驱动下研究生科研伦理风险的生成机制与协同治理研究

作者

吕盈

江苏大学环境与安全工程学院 江苏镇江 212013

一、引言

ChatGPT 等生成式 AI 工具的爆发式增长正重构科研范式。国际期刊《Science》2023 年调查显示, 62% 的科研人员使用 AIGC 辅助研究,其中研究生群体占比达 78% 。然而,AI 生成内容的隐蔽性、算法偏见等问题引发学术不端激增,但针对科研场景的细则仍缺位。现有研究多聚焦宏观治理,缺乏对研究生群体行为机制的深度解析。本研究立足技术批判理论,揭示风险生成的内在逻辑。

二、研究设计与方法

(一)研究对象

问卷调查覆盖本院全部研究生( N=451 ),其中硕士生 378 人( 83.8% ),博士生 73 人( 16.1% ),学科分布为环境工程( 52.1% )、安全工程( 25.7% )、化工( 22.2% );深度访谈采用目的性抽样选取 35 人(含不同年级、学科及 AI 使用频率),访谈时长30-60 分钟。

(二)研究方法

1. 问卷调查法:自主设计《AIGC 科研应用现状调查表》,通过学院官方群发放,两周内回收有效问卷 422 份( 93.6% )。包含三部分:(1)使用习惯:使用场景、频率、依赖程度;(2)认知状况:对数据造假、版权风险等认知水平;(3)行为倾向:面对学术压力时的伦理选择。

2. 深度访谈法:聚焦AI 使用场景、伦理困境、归因认知。采用半结构化访谈,重点询问:“请描述最近一次用 AI 辅助科研的具体过程”;“是否遇到过 AI 生成内容不准确的情况?如何处理的?”;“学院现行规定是否涵盖AI 使用规范?”每次访谈30-60 分钟。

三、研究发现

(一)技术依赖与伦理认知失衡

调查问卷数据显示令人担忧的现象:(1)周均 AIGC 使用频次为 7.2±2.8 ,其中文献综述类任务达 12.3 次;(2)5 分制下,学生的文献生成依赖度得分为4.1±0.7 , 63% 学生超过 4 分,显著依赖 AI 生成;(3)5 分制下,学生的数据伪造风险认知为 2.3±1.1 , 79% 学生评分低于及格线,风险认知不到位。

一位环境工程硕士生的说法颇具代表性:“用 AI 写文献综述能省两周时间,生成的英文摘要比我自己写得好。至于参考文献是否真实 ... 没想过要核查,导师也没特别要求。”(编号S18)

(二)行为失范的生成路径

通过访谈文本分析,提炼出主要风险点:

1.技术便利催生的“捷径效应”。28名受访者承认使用“降重-生成-改写”工具链替代原创思考。

2. 学术压力导致责任转移。多数受访学生表示,在导师催促进度时,AI 生成的内容成为救命稻草。受访博士研究生表示,“过度依赖将导致实验设计能力下降,失去了自主思考过程”。(编号B02)

3. 制度空白形成监管漏洞。 91.6% 的学生不了解 AIGC 成果署名规范,学院现行制度中暂无提及AI 辅助研究监管。

四、治理方案

(一)三维治理框架:三位一体的实践路径

基于问题分析,构建符合学院特点的治理框架。

1. 教育引导:筑牢思想防线。

(1)开设“AI 科研伦理”必修模块,包含真实案例剖析(如某校因 AI 造假撤销学位)、 环境 / 安全领域特殊风险演示等。

(2)在研究生科学道德学风建设月中,着力宣传 AI 诚信主题,开设专题讲座。

2. 过程监管:建立防控机制。

(1)开题阶段,学生提交《AI 工具使用计划书》,导师签字确认;

(2)实验阶段,禁用 AI 生成核心数据,并设立实验室监督员;

(3)论文写作阶段,涉及到 AI 生成内容需附原始生成记录,由学科评审组进行审核。

3. 制度保障:完善规则体系。

(1)出台《生成式 AI 科研应用管理办法》,建立 AIGC 使用申报与内容存档制度,明确禁用场景(如:实验原始数据、安全评估报告、环境影响预测等)。

(2)标注规范,在正文末注明“AI 生成内容占比及工具名称”。

(3)追责条款:对未申报使用AI 导致事故的,视情节给予处分并取消学生评奖评优资格。

(二)实践反馈:措施可行性验证

对35 名访谈对象进行方案认可度调查,展示治理方案后,收集到积极反馈:伦理课程支持率为 94.3% 。受访者认为“希望教具体鉴别方法,不要光讲理论”(编号S02)。

使用申报制支持率为 71.4% 。受访者认为“担心增加工作量,建议简化流程”

(编号B01)。

禁用清单支持率为 85.7% 。受访者认为“安全工程实验确实不该用 AI 生成数据”(编号Z13)“需要明确AI 在科研中的使用边界”(编号B04)

五、讨论与启示

(一)理论创新:揭示深层作用机制

1. 本研究证实了“技术便捷性→学术功利性→伦理妥协”的行为传导机制,突破传统“技术决定论”或“道德滑坡论”的单维解释。

2. 本研究证实制度环境在风险生成中的调节作用,印证了计划行为理论的适用性。

(二)实践建议

1. 教育先行:教育要避免“说教化”,开发案例库(如 AI 虚构数据导致撤稿事件)强化风险感知,用环境工程真实案例替代道德说教。

2. 分类监管:按学科特点制定 AIGC 使用负面清单(如环境监测原始数据采集禁用生成式 AI,建立学科绝对禁止场景,厘清 AI 在学术科研中的边界,并在实验室张贴警示图标,如“红色禁标”表示禁用AI 生成数据。

3. 制度衔接:将AI 伦理审查嵌入学位论文开题、中期考核、预答辩及学位申请全流程。学院随机抽检 AI 生成内容原始记录,规定 AI 内容占比超 15% 需附加真实性声明,并由学术委员会核查AI 使用档案。

六、结语

本研究揭示生成式 AI 在研究生科研中引发的伦理风险根植于技术便利性与制度滞后的矛盾。作为环境与安全工程领域的教育工作者,我们正将成果转化为实践 , 未来需在学院试点基础上,推动校际治理标准联动,建立“使用 -监督- 追责”闭环管理体系,最终构建安全可信的科研创新生态。

参考文献

[1] 李焕宏 , 薛澜 . 加强生成式人工智能在高等教育领域中的风险管理:基本框架与关键举措 [J]. 高等教育研究 ,2024,45(02):31-38.

[2] 冯雨奂 .ChatGPT 在教育领域的应用价值、潜在伦理风险与治理路径 [J].思想理论教育 ,2023,(04):26-32.

[3] 谭春林 , 王建平 .AIGC 在学术研究和出版中的使用边界、透明度与伦理[J]. 编辑学报 ,2024,36(06):661-666.

作者简介:吕盈(1997-),女,汉族,江苏南京人,硕士,江苏大学,辅导员,研究方向:思想政治教育。