基于改进图卷积网络的智能网联汽车行人预警系统研究
张驰昱
陕西交通职业技术学院 陕西省 西安市 710000
1 引言
随着智能网联汽车技术的日益成熟与广泛应用,如何确保车辆与行人之间的安全交互成为了自动驾驶领域研究的热点之一。智能网联汽车通过集成先进的传感器技术、信息通信技术以及人工智能技术,实现了对周围环境的全面感知与智能决策,为提升道路交通安全提供了新的解决方案。[1][2] 然而,在复杂的交通环境中,行人作为最脆弱的道路使用者,其安全预警系统的准确性和实时性显得尤为重要。
行人预警系统是无人驾驶汽车环境感知系统的重要组成部分,它负责实时监测车辆周围的行人动态,及时发出预警信号,以避免潜在的碰撞风险。传统的行人检测方法主要依赖于图像处理技术和机器学习算法,但在复杂多变的交通环境中,这些方法往往难以应对行人姿态多样、遮挡严重、尺寸变化大等挑战,导致检测精度和实时性受限[3]
近年来,图卷积网络(Graph Convolutional Network, GCN)[4] 作为一种新兴的深度学习方法,在处理图结构数据方面展现出了强大的能力。GCN 通过定义图上的卷积操作,能够有效地捕捉节点之间的空间关系,提取图结构中的特征信息。这一特性使得 GCN 在行人检测领域具有广阔的应用前景,尤其是在处理行人之间的空间位置关系、运动轨迹预测等方面具有独特优势。然而,直接将 GCN 应用于无人驾驶汽车行人预警系统仍面临诸多挑战。一方面,无人驾驶汽车行驶过程中产生的图结构数据规模庞大,传统 GCN 算法在处理大规模图数据时存在计算复杂度高、信息损失等问题;另一方面,如何有效地将 GCN 与现有的深度学习框架相结合,实现高精度、实时性的行人检测,也是一个亟待解决的问题。
针对上述问题,本文提出了一种基于改进图卷积网络的无人驾驶汽车行人预警系统。该系统通过引入轻量化网络结构设计、特征图分层处理等优化策略,降低了 GCN 的计算复杂度,提高了系统的实时性。同时,结合卷积神经网络(CNN)进行初步的图像特征提取,进一步提升了行人检测的精度。此外,本文还重新构建了行人骨骼关键点的图结构表示,以更好地捕捉行人的动态变化特征,提高预警系统的鲁棒性。
2 基于改进ST-GCN 的矿工不安全行为识别网络
为了解决当前智能网联汽车在复杂交通场景下行人行为识别精度不足、预警响应滞后的问题,提出了多头自注意时空图卷积网络 (NP-AGCN)。以车载视觉传感器采集的行人人体关键点构建出的图结构数据作为网络输入,时空图卷积网络 (ST-GCN) 为主体,在网络前部创新性地提出了帧内交互图结构构建方法并优化了网络原有的分区策略,在图卷积核心部分加入多头自注意力模块。构建出的多头自注意时空图卷积网络能够精准捕捉行人动态行为特征(如突然横穿、驻足观望、肢体异常摆动等),有效提升智能网联汽车对行人危险行为的识别效率与准确性,为行人预警系统提供可靠的决策依据,进一步保障道路交通安全。
多头自注意时空图卷积网络是基于人体关节点数据构造出的图结
构来实现行为识别,因此需要将离散的关节点坐标转换为图,即通过
关节点两两相连形成空间骨架图。利用 openpose 人体姿态估计算法242
可以得到人体 18 个关节点坐标点。然后通过矩阵构建出图卷积所需的邻接矩阵。对于一个含有 N 个节点和 T 帧的骨架序列 , 在该骨架序列上构建一个无向图 ,V 为节点特征(node),E 为边特征(edge), 节点特征集合 V={Vtilt=1,…,T,i=1,…,N} ,其中 ΔVii 表示不同节点特征,t 表示不同帧的节点(即时间域),i 表示同一帧中不同人体关键点(节点), ΔVu 的维度为(
,confidence),其中 x , Δy 为该关键点的坐标,confidence 为该关键点的置信度。根据 V 节点即可即可组成单帧的图[74]。边集合 E 由 Es 和 EF22 个部分组成,构建帧间图。Es 表示同一帧中不同关节之间的关系,表示为 Es={viivijl(i,j)∈H} ; EF 表示不同帧间的相同关节间的关系,表示为 Es={vtiv(t+1)j} ,两个集合共同构建出人体骨架时空图,使得时空图卷积可以同时得到空间和时间信息。
3 模型对比实验
为表明所提 NP-AGCN 模型在智能网联汽车行人行为识别任务中的优势,验证模型改进对提升行人预警系统性能的必要性,在通用行为识别数据集 NTU-RGBD(选取行人相关行为子集)和自建的智能网联汽车场景行人危险行为数据集(涵盖复杂路况下行人突然横穿、紧急避让、违规驻足等典型危险行为,包含晴天、雨天、夜间等多环境样本)上,开展不同模型的对比实验。实验重点从模型复杂度(参数量、计算量)和行人行为识别准确性(危险行为识别精度、预警响应速度关联指标)两方面,与 ST-GCN 及其改进型网络进行横向对比。

4 结论
本文章分析智能网联汽车在复杂交通场景下行人行为识别的现存问题 —— 包括雨天雾天等恶劣天气导致的行人关键点捕捉偏差、车辆行驶过程中动态背景干扰对行人行为时序特征提取的影响,以及传统系统对行人突然横穿、紧急避让等危险行为识别滞后等。针对这些问题,提出一种适用于智能网联汽车场景的多头自注意力时空图卷积网络。
最后对所提出的模型进行实验,以此验证模型对于智能网联汽车场景下行人行为的识别效果。结果表明,改进后的模型能够对各类行人危险行为有 90% 左右的检测准确率,且在复杂交通环境下仍保持稳定性能,能够很好地应用于智能网联汽车行人预警系统。
参考文献
[1]Zhang D, Fang B, Yang W, et al. Robust inverse perspective mapping based on vanishing point[C]//Proceedings 2014 IEEE International Conference on Security, Pattern Analysis, and Cybernetics (SPAC). IEEE, 2014: 458-463.
[2]Zhang H, Wu C, Zhang Z, et al. Resnest: Split-attention networks[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 2736-2746.