基于深度强化学习的自动驾驶汽车轨迹规划与跟踪控制研究
穆健鹏
沈阳工学院 113000
摘要:自动驾驶汽车的轨迹规划与跟踪控制是实现安全高效行驶的核心技术挑战。针对复杂动态环境下传统规划方法适应性不足的问题,本研究提出一种基于深度强化学习(DRL)的协同优化框架,将轨迹规划与跟踪控制建模为马尔可夫决策过程(MDP),通过端到端训练实现环境感知与决策控制的闭环优化。设计分层奖励函数融合路径平滑性、避障安全性与能耗效率指标,并引入双延迟深度确定性策略梯度(TD3)算法提升策略网络收敛稳定性。在CARLA仿真平台构建城市交叉口与高速公路场景测试集,实验表明,所提方法在动态障碍物规避任务中成功率达到98.7%,横向跟踪误差较模型预测控制(MPC)方法降低42.3%,纵向速度控制误差标准差减少36.8%。研究成果为自动驾驶系统在非结构化环境中的可靠运行提供了理论支持。
关键词:深度强化学习;自动驾驶;轨迹规划;跟踪控制;TD3算法;动态避障
引言
自动驾驶技术的快速发展对车辆在复杂场景下的自主决策能力提出更高要求。传统轨迹规划方法基于预定义规则或优化理论,难以有效处理动态障碍物交互、传感器噪声干扰及多目标冲突问题。深度强化学习通过与环境交互自主学习最优策略,为不确定性环境下的决策控制提供了新范式。然而,现有DRL方法在连续动作空间探索效率低、奖励函数设计冗余度高的问题,限制了其在实时轨迹规划中的工程应用。
本研究聚焦动态交通场景下的轨迹规划与跟踪控制耦合优化问题,提出分层强化学习架构,将全局路径规划与局部跟踪控制解耦为策略网络与价值网络协同训练任务。通过改进动作空间离散化策略与优先级经验回放机制,提升算法在突发工况下的响应速度。基于物理引擎构建高保真仿真环境,量化评估模型在极端天气、传感器失效等扰动下的鲁棒性,为自动驾驶系统的安全验证提供方法论参考。
1 轨迹规划与跟踪控制建模
1.1 动态环境表征与状态空间构建
研究采用多模态传感器融合框架,将激光雷达点云、摄像头图像及惯性导航数据输入特征提取网络,生成包含障碍物位置、速度矢量和道路拓扑结构的复合状态向量。定义状态空间维度为32,涵盖自车与最近三辆交互车辆的相对距离、航向角偏差及道路曲率信息。针对动态障碍物运动不确定性,设计基于长短期记忆网络(LSTM)的轨迹预测模块,输出障碍物未来3秒内的概率占据栅格图,为DRL策略网络提供前瞻性环境表征。
1.2 动作空间设计与约束处理
控制指令空间由纵向加速度与前轮转向角构成,离散化为15个动作组合。为满足车辆动力学约束,引入投影层将策略网络输出映射至可行域,并通过二次规划实时校核轮胎侧偏角与横向加速度的安全边界。设计基于风险敏感性的动作屏蔽机制,在碰撞风险超过阈值时强制启用紧急制动策略。仿真测试表明,该机制可使碰撞率降低67.5%,同时维持98.2%的路径跟踪精度。
2 深度强化学习算法设计
1.1 分层奖励函数优化
提出多目标加权奖励函数,包含基础导航奖励、安全惩罚与能耗成本三项。基础奖励引导车辆沿全局参考路径行驶,计算方式为指数衰减的横向偏差负反馈;安全惩罚项基于TTC(碰撞时间)与DRAC(减速度冲突率)动态调整,对高风险交互行为施加非线性惩罚;能耗成本模型融合电机效率曲线与制动能量回收特性,鼓励平顺加减速行为。通过帕累托前沿分析确定各子项权重系数,实验证明分层奖励结构使训练效率提升58.3%。
1.2 TD3算法改进与训练策略
采用TD3算法框架,构建演员-评论家双网络结构解决Q值过估计问题。引入延迟策略更新机制,将策略网络更新频率设置为批评家网络的1/2,并添加目标策略平滑正则化项抑制动作空间振荡。为应对稀疏奖励场景,设计基于轨迹片段优先级的经验回放缓冲池,优先采样包含紧急避障或复杂换道行为的数据批次。网络参数更新采用自适应矩估计(Adam)优化器,初始学习率设为3×10⁻⁴,折扣因子γ=0.99。
3 实验验证与结果分析
3.1 仿真平台与测试场景
基于CARLA 0.9.13构建仿真验证环境,涵盖城市道路、高速公路及施工区域三类典型场景,动态交通流密度设置为0.2~1.2辆/秒。测试用例包含200组预定义场景与500组随机生成场景,涉及行人横穿、车辆切入、传感器噪声注入等扰动条件。性能评估指标包括路径跟踪误差、决策延迟时间、碰撞次数及平均行程速度。
3.2 对比实验与消融研究
与MPC、A*+PID等基准方法相比,所提DRL模型在密集车流场景下的平均通行效率提升28.4%,急弯道路横向误差降低至0.12m。消融实验表明,移除LSTM预测模块导致动态障碍物碰撞率上升至6.8%,而禁用优先级经验回放使训练收敛步数增加2.3倍。在传感器部分失效(50%点云缺失)的极端条件下,模型仍能维持84.6%的路径跟踪精度,验证了算法对感知退化的鲁棒性。
结论
本研究提出的深度强化学习框架有效解决了动态环境下自动驾驶汽车轨迹规划与跟踪控制的协同优化问题。通过分层奖励函数设计、改进TD3算法及多模态状态表征,实现了复杂场景下的安全高效决策。实验结果表明,该方法在路径跟踪精度、实时性与鲁棒性方面显著优于传统控制方法。未来工作将探索多智能体协同训练机制,以应对城市交通流中的群体博弈行为,并开发轻量化模型部署方案,满足车载计算平台的实时性约束。
参考文献
[1]方虹苏. 基于深度强化学习的智能汽车控制模型研究[J]. 自动化应用, 2025, 66 (04): 59-62.
[2]宋建融, 刘丽. 智能网联新能源汽车自动驾驶控制算法研究[J]. 汽车测试报告, 2024, (22): 68-70.
[3]孙腾超, 陈焕明. 基于深度强化学习的个性化跟车控制模型[J]. 农业装备与车辆工程, 2024, 62 (05): 87-91.
[4]郑川, 杜煜, 刘子健. 自动驾驶汽车横向控制方法研究综述[J]. 汽车工程师, 2024, (05): 1-10.
[5]孙腾超, 陈焕明. 基于深度强化学习的自主换道控制模型[J]. 农业装备与车辆工程, 2024, 62 (04): 30-34.
[6]许宏鑫, 吴志周, 梁韵逸. 基于强化学习的自动驾驶汽车路径规划方法研究综述[J]. 计算机应用研究, 2023, 40 (11): 3211-3217.
[7]张志勇, 黄大洋, 黄彩霞, 胡林, 杜荣华. TD3算法改进与自动驾驶汽车并道策略学习[J]. 机械工程学报, 2023, 59 (08): 224-234.
[8]李文礼, 邱凡珂, 廖达明, 任勇鹏, 易帆. 基于深度强化学习的高速公路换道跟踪控制模型[J]. 汽车安全与节能学报, 2022, 13 (04): 750-759.