大学生使用人工智能工具的伦理反思
石翠
怀化学院马克思主义学院
今年年初,国产人工智能大模型 DeepSeek“横空出世”,通过算法架构创新实现性能突破,因为其简单、易用的功能而受追捧,在教育领域的应用也日益广泛,特别是在高校中,人工智能工具已成为大学生学习和研究的重要辅助手段。
一、大学生使用人工智能工具的现状研究
在当今科技飞速发展的时代,人工智能正以惊人的速度改变着我们的生产生活方式。其中,生成式人工智能工具依靠其强大的文本生成能力而获得全球关注,在各个领域展现出巨大的潜力 [1]。从文本生成到图像创作,从代码编写到视频制作,这些工具正不断地拓展着人类能力的边界。有证据表明,生成式人工智能正逐步成为大学生学习和生活的重要组成部分。
根据“瑞典大学生的使用人工智能的情况和观点调查”的调查研究发现,瑞典学生对于在教育中使用 ChatGPT 等人工智能工具持积极态度 [2];美国一项调查显示, 89% 的大学生使用 ChatGPT 完成作业,53% 的大学生借助其撰写论文;《泰晤士报》报道,英国剑桥大学近一半的学生在学习中使用 ChatGPT。国内学者对大学生生成式人工智能工具使用现状也有研究,浙江大学李艳、许洁、贾程媛、翟雪松随机调查了 1190 位浙江大学本科生,通过多种方法,分析大学生生成式人工智能的使用现状。
研究表明,参与调研的大部分学生熟悉并经常或偶尔使用生成式人工智能,常使用的生成式人工智能工具是 ChatGPT、文心一言、讯飞星火等,最常用的生成式人工智能功能是文本生成功能。这说明大学生对该技术的接受度较高,生成式人工智能已渗透进大学生的日常学习和生活[3]。
二、大学生使用人工智能工具的伦理反思
(一)学术诚信与知识产权的边界模糊
1. 学术作弊的新形式
在学术领域,AI 工具的应用使得学术诚信与知识产权的界限变得模糊不清。学生使用 AI 辅助完成作业或研究成果,这一行为难以简单界定为合理使用工具还是学术作弊。例如,学生输入一个大致的概念或问题,让 ChatGPT 生成完整的文章,这些文章在表面上可能不同于现有的任何文献,从而能够通过抄袭检测软件,这对学术界的原创性及学术评价体系构成挑战。麦可思对 3000 多名高校师生的问卷结果显示,大学生在使用生成式 AI 时,有近三成主要用于写论文或作业,这进一步凸显了学术作弊新形式的严重性。
2. 知识产权归属的争议
AI 生成内容的版权归属尚无明确统一的定论,当学生使用 AI 工具生成内容并作为自己的成果提交时,就引发了知识产权归属的争议。一方面,AI 工具的开发者和运营者认为他们拥有 AI 生成内容的知识产权;另一方面,学生认为自己在输入指令和筛选内容过程中付出了劳动,应该享有部分知识产权。这种争议不仅影响了学术成果的正常评价和使用,也给知识产权保护带来了新的挑战。斯坦福大学 2023年《全球AI 伦理教育报告》指出,在被调查的50 所顶尖理工院校中,仅 12% 设置了独立的技术伦理学分,这也从侧面反映出当前技术伦理教育的缺失,使得学生在使用 AI 工具时缺乏对知识产权等伦理问题的正确认知。
(二)隐私权与数据安全的潜在风险
1. 数据收集与滥用
大学生在使用 AI 工具的过程中,隐私权与数据安全面临诸多潜在风险。AI 工具通常需要收集大量用户数据来优化算法和提供个性化服务。然而,部分 AI 工具的隐私政策不够透明,学生在不知情的情况下,数据可能被过度收集或滥用。例如,一些 AI 工具可能会收集学生的个人信息、学习记录、浏览历史等数据,并将这些数据用于商业目的,如精准广告投放、用户画像分析。这不仅侵犯了学生的隐私权,还可能导致学生的个人信息被泄露,给学生带来不必要的麻烦和损失。
2. 数据安全威胁
在大学生使用 AI 工具的场景中,数据安全面临显著威胁。2024年初开始,浙江大学黄亚婷团队分三次对国内大学生使用 AI 工具的情况进行调研,调研对象包括 20 多所高校的 3800 多名本科生和4200 多名硕博群体,虽未直接提及数据隐私问题,但 AI 工具的广泛使用必然伴随着数据收集与潜在风险 [4]。此外,在舒小茜、尹佳睿、张晨晨等关于大学生群体使用 AI 的现状调研中显示,有约 72% 的同学担心其可能存在虚假数据信息的风险。同时,近 64% 的同学关注网络安全风险,担心自己的个人信息和数据在使用过程中被泄露或滥用。由此可见,使用人工智能存在着“惊艳”与“风险”并存的双重向度。
(三)认知能力与批判思维的退化危机
1. 独立思考能力下降
长期过度依赖 AI 工具,容易导致大学生独立思考能力逐渐下降。AI工具能够快速提供答案和解决方案,这使得部分学生在遇到问题时,第一时间不是主动思考、分析和探索,而是直接求助 AI。久而久之,学生习惯了被动接受信息 , 独立分析和判断的能力缺失,难以提出自己的见解和解决方案。这种独立思考能力的下降,不仅影响学生在学术上的成长,还会对其未来的职业发展和社会生活造成阻碍。
2. 批判性思维弱化
在面对 AI 提供的信息时,部分学生缺乏批判性思维,不加辨别地接受,无法判断信息的准确性、可靠性和适用性。AI 生成的内容可能存在错误、偏见或不完整的情况,如果学生没有批判性思维,就容易被这些信息误导。AI 工具的广泛应用使得学生接触到的信息量大幅增加,但这些信息往往是碎片化的、缺乏系统性的。学生如果没有批判性思维,就难以对这些信息进行整合和分析,无法形成自己的知识体系和认知框架。这种批判性思维的弱化,将阻碍学生的创新思维和创造力的发展,使其难以适应未来社会的需求[5]。
3. 价值感降低与道德伦理问题
人工智能工具的深度介入容易消解大学生的学习成就感与自我价值认同,同时衍生出一系列道德伦理问题。当学生长期借助 AI 完成作业或论文,将知识成果的获取简化为技术操作,导致自身努力与知识创造之间的关联性被割裂。他们会逐渐失去通过自身努力获得知识和成就的满足感,对自己的学习能力和价值产生怀疑。此外,AI 使用中的道德伦理风险加剧。学生用 AI 作弊、代写论文,破坏学术诚信与教育公平;未标注 AI 生成内容来源,易引发知识产权和抄袭问题。同时,AI 推荐形成“信息茧房”,限制学生接触多元观点,不利于包容价值观的培养。
三、结论
大学生使用人工智能工具已成为一种普遍现象,在带来学习变革与效率提升机遇的同时,也引发了学术诚信、数据安全、思维发展等一系列伦理问题。学术诚信与知识产权边界模糊,使得学术评价体系面临挑战,知识产权归属存在争议;隐私权与数据安全面临潜在风险,数据收集与滥用、数据安全威胁等问题不容忽视;认知能力与批判思维出现退化危机,独立思考能力下降、批判性思维弱化以及价值感降低和道德伦理问题日益凸显。
参考文献
[1] 张池 . 大学生对于生成式人工智能工具的使用意愿研究——基于技术接受模型 [J]. 科技传播 ,2023,15(23):131-135.
[2] 本刊讯 . 学生对人工智能持积极态度,但缺乏明确的使用指导[J]. 数据分析与知识发现 ,2023,7(05):47.
[3] 李艳 , 许洁 , 贾程媛 , 等 . 大学生生成式人工智能应用现状与思考——基于浙江大学的调查 [J]. 开放教育研究 ,2024,30(01):89-98.
[4] 王思遥 , 黄亚婷 . 促进或抑制:生成式人工智能对大学生创造力的影响 [J]. 中国高教研究 ,2024,(11):29-36.
[5] 何军 , 姚雯皓 . 人工智能对大学生批判性思维培养的价值及策略研究 [J]. 中国医学教育技术 ,2024,38(06):746-750.
作者简介:,思想政治教育专业学生。