基于改进 YOLOv5 的电动车驾驶人头盔检测方法
张建柯 刘辉 王璐 孙瑞程
1.河北省工业机械手控制与可靠性技术创新中心,河北省沧州市运河区黄河西路49号,061001; 2.沧州市工业机械手控制与可靠性技术创新中心,河北省沧州市运河区黄河西路49号,061001; 3.河北水利电力学院 机械工程系,河北省沧州市运河区黄河西路49号,061001; 4.河北水利电力学院 电气自动化系,河北省沧州市黄河西路49号 061001
摘 要:随着电动车保有量的快速增长,驾驶人佩戴头盔的安全问题日益受到关注。传统的人工检测方式效率低下且难以保证准确性。本文提出一种基于改进 YOLOv5 的电动车驾驶人头盔检测方法。通过引入CBAM注意力机制以及代替原有骨干网络中的SPP模块,模型对头盔检测的准确率由84.82%上升至86.53%,上升了1.71个百分点。试验结果表明,改进后的算法在准确率指标上有明显提升,为电动车驾驶人头盔检测提供了有效的技术支持。
关键词:目标检测;深度学习;YOLOv5算法;头盔佩戴
1 研究背景
随着城市化进程的加快,电动车作为一种便捷的交通工具,其保有量不断增加。然而,电动车驾驶人佩戴头盔的情况参差不齐,这给交通安全带来了潜在风险。为了提高交通安全水平,对电动车驾驶人头盔佩戴情况进行有效检测具有重要意义。传统的检测方法主要依靠人工,存在效率低、准确性难以保证等问题。基于深度学习的目标检测算法为解决这一问题提供了新的思路。
近年来,国内外在电动车头盔佩戴检测领域的研究日益丰富。VishnuC等人提出了一个用于自动检测监控视频中未佩戴摩托车头盔驾驶员的框架。此框架先是运用背景差法获取运动对象,接着利用CNN识别摩托车驾驶者,最后针对驾驶员上四分之一部分再次运用CNN来判断其是否佩戴头盔。Dahiya等人则提出一种通过实时监控自动检测摩托车驾驶员是否佩戴头盔的方法,首先采用背景差法和对象分割从视频中提取运动对象,然后借助视觉特征和二元分类器确定骑车人是否佩戴头盔。
此外,众多研究人员还借助深度学习算法实现了对电动车驾驶员头盔佩戴的检测。Boonsirisumpun等人运用SDD网络进行两次检测,首次检测出摩托车驾驶员,第二次检测该驾驶员是否佩戴头盔。同时,薛瑞晨[1]等人基于改进的YOLOv3网络,达成了对电动车驾驶员头盔佩戴的检测。李少博[2]等人采用深度学习方法,依据YOLOv4模型的特性构建了一个头盔检测模型,该模型能够以较高的准确性检测非机动车驾驶员是否佩戴安全头盔。
本文选择YOLOv5算法作为基础,旨在进一步优化算法以提高其在电动车驾驶人头盔检测中的性能。通过引入CBAM注意力机制进行改进[3],解决在复杂场景下头盔漏检以及检测准确率不高的问题。
2YOLOv5算法
YOLOv5 目标检测算法是继承了 YOLO 系列算法精华的一代算法,在权重文件、推理时间、训练时间上较 YOLOv3、YOLOv4 都有不同程度的提升。Yolov5 官方代码中,给出的目标检测网络共有4个版本,分别是 Yolov5s、Yolov5m、Yolov5l、Yolov5x四个模型。考虑到检测任务的实时性要求,本实验选择了其中的轻量级网络 Yolov5s,如图2.1所示,其结构主要分为4个部分,Input输入端、Backbone主干网络、Neck网络、Prediction输出端。
1.输入端
输入端主要通过 Mosaic 数据增强、自适应锚框计算、自适应图片大小3种方式对输入模型的图片进行统一处理[6]。
2.主干网络
Backbone 的作用主要是提取特征,主要包含 Focus、BottleneckCSP、空间金字塔池化 SPP 模块。
3.Neck 网络
Neck 中的 PANET 基于 Mask R-CNN 和 FPN 框架,加强了信息传播,具有准确保留空间信息的能力,有助于对像素进行适当的定位以形成掩模。
4.输出端
Prediction 主要是检测部分,它在特征图上应用锚定框,并生成分类概率、置信度和目标锚框最终的向量。
3改进的YOLOv5算法
为从输入图片信息中选择出对当前任务更关键的特征信息,本文引入注意力机制。目前注意力机制主要包括空间注意力、通道注意力和自注意力3类[4]。考虑到模型的计算开销,本文主要引入CBAM注意力机制。通过精确的位置信息对通道关系和长期依赖性进行编码,在保证效率的同时几乎不带来额外的计算。
本研究针对YOLOv5算法进行结构优化,重点改进Backbone特征提取能力。改进前模型在Backbone末端采用SPP(空间金字塔池化)模块,通过多尺度池化操作增强感受野。改进后将SPP模块替换为CBAM(卷积块注意力模块)[4],该模块由通道注意力与空间注意力双分支构成:通道注意力通过全局平均/最大池化获取通道权重,空间注意力则采用卷积层生成空间特征响应图,二者协同实现特征的自适应校准。新结构在保持640×640×3输入尺寸基础上,使网络更聚焦于关键特征区域,有效抑制背景噪声干扰。实验表明,CEAM模块的引入增强了模型对多尺度目标的特征表达能力,在保持计算效率的同时提升了检测精度,尤其改善了复杂场景下小目标与遮挡目标的识别效果[5]。
4实验及分析
4.1 实验结果对比
本实验在 CPU 为 Intel (R) Core (TM) i7-13650H、运行内存8.00GB、GPU为NVIDIA GeForce RTX3050的硬件平台上运行。在Pytorch 2.4.1、CUDA11.1的环境下实现。通过在大型数据集COCO上训练得到预训练模型的初始化权重,使用SGD优化器来优化总体目标,训练批次为16,学习率设置为0.01,模型迭代100次。模型使用的图像尺寸均为640px*640px[6]。
表1对两种目标检测模式进行了全面的对比分析,这两种模式分别是YOLOv5(以下简称模型1)以及集成了CBAM(卷积块注意力模块)注意力机制的YOLOv5(以下简称模型2)。此处采用的评估指标涵盖了在交并比(IoU)阈值为0.5时计算得出的平均精度均值(mAP)、准确率,这些指标在目标检测评估领域被广泛认为是关键指标[5]。
模型1(YOLOv5)的mAP@0.5值为0.86113,这表明其具有相对较高的检测准确度。其准确率指标为0.8482,意味着该模型做出的所有未佩戴头盔预测中正确的未佩戴头盔的检测所占比例为84.82%,由此反映出其识别相关目标的有效性。
相比之下,模型2(YOLOv5 + CBAM)的mAP@0.5为0.8535。尽管该数值略逊于模型1,但模型2展现出了更高的准确率得分,即0.8653,这暗示其未佩戴头盔的检测具有更高的可靠性。 这些实验结果表明,虽然原YOLOv5在平均精度均值方面有着相对较好的表现,但在YOLOv5中融入CBAM注意力机制会使检测准确率有所提高,所以从整体来看,在头盔检测领域,引入CBAM模块还是有一定程度的优势。
4.2 模型检测结果分析
1.对未佩戴头盔的检测准确度
图4.1和图4.2展示了模型改进前后在两个电动车骑行者检测方面的表现对比。其中图4.1显示的是改进前的未佩戴头盔检测效果图,绿色框表示电动车类,0.88和0.87则表示模型认为该框有88%和87%的可能性为电动车;黄色框则表示未佩戴头盔类,0.82和0.81分别表示模型认为该框有82%和81%的可能性为未佩戴头盔。而图4.2则显示了改进后的模型在同一张图片上的检测效果图,紫色框表示电动车类,0.91和0.87则表示改进后的模型对该框的置信度分别为91%和87%。与此同时,未佩戴头盔检测出的置信度分别提升为84%和82%。比较改进前后的检测效果图可以明显地看出改进后的模型相较于改进前模型在电动车类及未佩戴头盔类的检测上有了较大的提升。综上所述,通过改进YOLOv5模型,在物体检测方面取得了显著的提升,能够更准确地识别不同类别的物体并提高整体的检测性能。
2.对小目标检测的准确度
图4.3展示了未经改进的模型在道路交通图片上的目标检测效果。在该图中,该图中,模型共预测出了4个电动车和摩托车边框。相比之下,图4.4展示了经过改进后的模型在小目标检测上的表现。该图中改进后的模型总共预测出了6个电动车和摩托车边框,并且相对于改进前的模型,改进后的模型整体置信度有所提高。因此,从这个角度来看,改进后的模型能够更加精准地定位目标。
5结论
针对传统头盔检测方法存在的问题,本文采用基于深度学习算法的检测方法,减少了人工检测的人力投入,为实现头盔检测的自动化提供了可能。本文模型在 YOLOv5 的基础上对注意力机制进行改进,将注意力机制CBAM模块替换了SPP模块,改善了不同场景下头盔识别的鲁棒性与精准度。同时,由于本文采用了2类样本进行试验,仍然存在一定局限性,为使模型更好应用在实际场景中,下一步工作将收集更多样本并对模型进一步改进与调整,从而提高模型的实用性与精准率。
参考文献
[1]薛瑞晨.基于深度学习的电动车头盔佩戴检测算法研究及实现[D].南京师范大学,2021.
[2]李少博,董世浩,夏宇航,等.基于卷积神经网络的头盔佩戴检测模型的研究[J].科学技术创新,2021,(25):149-150.
[3]黄艺煊,王立才,喻金桃,等. 基于YOLOv5改进的遥感图像小目标检测方法 [J]. 遥感信息, 2025, 40 (01): 142-148.
[4]尹誉翔. 基于改进YOLOv5的车辆行人检测算法研究[D]. 兰州交通大学, 2024.
[5]贾浩男,徐华东,王立海,等.基于改进YOLOv5木板材表面缺陷的定量识别[J].北京林业大学学报,2023,45(04):147-155.
[6]李广博,查文文,陈成鹏,等.基于改进YOLOv5s的猪脸识别检测方法[J].西南农业学报,2023,36(06):1346-1356.