缩略图
Mobile Science

技术伦理视域下AI 心理咨询对大学生主体性风险探析及干预启示

作者

张真真

湖北文理学院 湖北襄阳 441053

一、大学生使用AI 心理咨询的现状

当前,我国人工智能(AI)产业正处于高速发展期,各类 AI 产品深度融入社会生活 [1]。 在此背景下,研发者持续优化人机交互体验,致力于提升网络沟通的社会接受度与大学生粘性。然而,这一技术浪潮也引发了深刻的哲学与伦理思辨:当个体与机器建立深度情感联结(如与聊天机器人倾诉感情)时,技术实质上参与了“人”的重构过程——它重塑个体的自我认知(Self-identity),并深刻改变人际关系的形态与本质。 这种人机关系的演进,甚至促使我们重新审视生命存在的意义。

心理咨询,其核心疗效机制高度依赖于真实、共情的交流与稳固的咨访关系。人工智能技术向该领域的渗透与深度应用,已成为一种技术迭代与社会需求共同驱动的必然趋势 [2]。目前,AI 辅助心理咨询的初级应用(如情绪识别、初步筛查、资源导航)已初见端倪。展望未来,更高级、更智能化的AI 心理咨询服务(如基于深度学习的个性化干预、模拟对话治疗)具有巨大的发展潜力与应用前景。因此,如何有效规避潜在风险,科学引导并优化 AI心理咨询的服务效能,使其真正惠及人类心理健康福祉,已成为亟待探讨与解决的核心议题。

人工智能、移动心理健康应用、在线心理测评系统等数字化干预工具,已逐步发展成为支撑学校高效实施心理危机动态筛查、精准干预及长效追踪的关键支持工具。人工智能技术依托大数据分析与机器学习算法,能够高效处理大规模学生行为数据集,精准识别潜在的心理危机风险信号。2024 年使用 AI 进行心理倾诉的人群同比增长 370%[3] ,某平台 AI 心理咨询日均对话量突破 200 万次,而传统心理咨询预约仍要排队 3 周以上,有效缓解部分因预约延迟导致的风险危机状况。然而,在高校中,将 AI 直接应用于面向全体学生的心理咨询服务,其发展与应用仍面临不容忽视的伦理与实践层面的风险挑战。

二、大学生使用AI 心理咨询的主体性风险

心理咨询 AI 系统通过持续吸纳大规模数据集进行训练并迭代优化算法模型,能够显著提升其识别来访者情绪状态的准确性,从而提供更具针对性的服务响应。同时,AI 系统具备显著的匿名性优势,能在相当程度上保障来访者的隐私权益 [4]。然而,尽管心理咨询 AI 为传统心理咨询模式注入了创新动能并推动了服务范式融合,其广泛应用亦引发了一系列深刻的伦理关切,核心聚焦于其对人类主体性的潜在消解与重构效应。

1. 数据驱动的模式输出

传统咨询中,来访者作为能动的认知主体,拥有自我决策、情感体验及价值判断的自主权。咨询师作为共情性引导者,通过人际互动激发来访者的主体潜能。AI 系统通过算法模拟人类交互行为,呈现功能性主体表象,但缺乏意识、意图与道德责任能力。其行为本质是数据驱动的模式输出,而非自主性实践。

2. 构建认知权威、削弱主体性解释

AI 通过数据垄断构建认知权威,削弱来访者对自身经验的解释权。例如对情绪识别,将复杂情感简化为分类标签,剥夺主体对情绪的命名[5]。人工智能心理咨询系统存在解释过度的显著缺陷,具体表现为:诊断标签化,基于有限行为数据(如文本记录、生理指标)即生成确定性临床判断,忽视心理状态的连续性、情境依赖性及内隐复杂性。比如将考前睡眠模式变化单一归因为病理性焦虑,忽略适应性应激反应的可能。采用线性模型解释多维心理现象(如将抑郁归因为" 社交不足"),遮蔽个体心理生态系统的交互作用机制。

3. 病理性的使用依赖

部分大学生对 AI 心理咨询工具形成病理性的使用依赖,这种依赖关系可能诱发认知规避行为[6]。其内在机制表现为:当 AI 系统持续提供即时性决策建议(如情绪归因、问题解决方案)时,大学生主动思考的动机强度显著降低,

导致元认知能力与批判性思维的渐进性弱化。

4.AI 道德主体地位

AI 不依据伦理学的基本理论预设,人工智能不具备道德主体性,AI 心理咨询师无法形成真正的道德意图;不能自主评估行为伦理后果;无独立承担道德责任的主体资格。

三、大学生使用AI 心理咨询的应对态度与策略启示

大学生在针对 AI 心理咨询上需要具备元认知能力,从工具依赖到技术清醒,强化技术中介性认知,高校要引导学生理解 AI 的工具本质,算法仅是辅助决策的统计学模型,而非全知主体,需建立技术清醒态度,坚持“人类为伦理最终守门人”原则。

在教育层面,应强化大学生的数字素养与批判性思维教育,培育其在人机协同中的主体自觉与能动性;在技术设计层面,倡导“以人为中心”的伦理设计原则,提升算法透明度与可解释性,并设置明确的人机责任边界;在制度规范层面,亟需建立健全AI 心理咨询的伦理审查、监管框架及专业标准,明确开发、部署与使用各方的伦理责任。相关部门要防范AI 系统的物化倾向,坚守“人本主权”的根本立场;身心安全优先权;建立AI 服务熔断机制(如自杀自伤意念触发真人介入);隐私权保障,通过实施差分隐私技术,确保数据脱敏。

当前,传统心理咨询与人工智能的范式融合已成为不可逆转的发展趋势,并在心理健康服务体系的若干关键领域(如危机预警、自助干预)展现出显著应用效能。虽在 AI 技术赋能服务升级的同时,亦在法律主体认定、道德责任分配、伦理关系重构等维度对人的主体性构成系统性挑战。未来,在 AI 心理咨询的情感共情模拟缺失、语境理解局限及解释过度倾向方面进行改进,坚守 " 人类主体性不可让渡 " 的伦理底线前提下,系统推进人机协同范式下心理咨询的创新构建。

参考文献:

[1] 王俊琳 , 周晓优 . 大学生对 AI 心理咨询的态度调查分析 [J]. 国际公关 ,2024,(13):116-118.

[2] 王婧 , 夏瑾 .AI 心理服务机器人:帮人们自助解决心理问题 [N]. 中国青年报 ,2023-10-17.

[3] 史梦璐 . 当事人对“AI”心理咨询的知觉和体验研究 [D]. 华中师范大学 ,2018.

[4] 廖波光 , 韦彬贵 .“AI+RPA”模式下高职院校心理咨询与预警云平台建设研究 [J]. 中国多媒体与网络教学学报 ( 中旬刊 ),2023,(07):5-8.

[5] 刁欣越 , 魏文博 , 李洁 , 等 . 线上心理咨询平台商业生态系统与可持续发展方式——基于“AI+RPA”模式的互联网平台研究[J]. 现代商业,2021,(06)

[6] 张洁 . 医疗人工智能应用的道德责任困境与化解 [J/OL]. 中国医学伦理学 ,1-8[2025-07-08].

作者:大学生心理健康教育中心专任教师 张真真