LaneSegNet:一种高效的车道线检测方法

来源:优秀文章 发布时间:2023-01-23 点击:

胡序洋 高尚兵 汪长春 胡立伟 李少凡

随着人们生活水平的提高,汽车在人们的生活中扮演着越来越重要的角色,汽车保有量逐年增加,交通事故频发.据统计,2020年全年共发生近16万起交通事故,死亡4万多人,受伤近16万人,直接财产损失超过11亿元.为了保障行车安全,避免事故发生,衍生出多种辅助驾驶[1]技术,其中车道线检测是智能驾驶技术中重要的组成部分.车道线检测的准确度和速度决定了智能驾驶系统的性能.

目前,车道线检测的方法主要分为基于传统的车道线检测方法和基于深度学习的检测方法.

基于传统的车道线检测方法主要依赖于高度定义化和手工提取的特征检测车道线.例如:刘源等[2]结合车道线边缘的梯度分布和灰度分布提取特征点提出一种基于边缘特征点聚类的车道线检测算法,根据车道线特征依次进行特征点聚类和区域聚类,再挑选出最优点进行拟合;吕侃徽等[3]使用改进Hough变换和密度空间聚类提出了一种稳健的车道线检测算法,将车道线分解成小线段,再分别进行聚类和检测.传统依赖手工提取特征的车道线检测方法实时性较强,但是只适用于环境简单、车道线无遮挡、光线较为均匀的结构化道路,当道路场景复杂时,检测效果往往不能满足要求.

基于深度学习的检测方法通过深度神经网络对图像中的车道线进行特征提取.例如:SAD[4]算法使用语义分割和知识蒸馏能够增强卷积神经网络的特征表达能力,大幅提升分割效果;PINet[5]模型提出基于关键点的车道线检测,使用较少的参数可以检测任意方向、任意数量的车道线;SGNet[6]算法充分利用车道线相关的结构信息,可以准确描述出车道线并对车道线进行分类和定位.

由于采集设备以及采集环境的不同,采集的道路信息会受到光照、遮挡以及阴影等因素的影响,进而影响车道线检测的准确度.同时,采集的道路图像较为复杂,准确有效的检测车道线仍然存在较大的挑战.本文基于高速公路以及城市内道路结构化的特征,提出一种基于LaneSegNet的高效的车道线检测算法,其流程如图1所示.该算法主要由编解码网络、混合注意力网络、多尺度空洞卷积融合网络组成.首先使用编码网络提取结构化道路的车道线特征,同时通过混合注意力网络增强车道线特征信息,然后通过多尺度空洞卷积融合网络扩大模型的感受野,最后使用解码网络恢复图像至原图大小,实现了车道线的检测.本方法能够实现端到端的车道线检测,能够满足实时性的要求.

图1 总体算法流程Fig.1 Flow chart of overall algorithm

近年来深度学习在各个领域有广泛应用,深度神经网络在车道线检测领域也取得了很好的效果.本文主要以Lane-Net为主干网络对图像特征进行信息提取和恢复、使用多尺度空洞卷积特征融合网络增大整个网络的感受野、使用混合注意力网络增强本任务相关的特征.

1)主干网络:主干网络的主要功能是尽可能多地提取特征信息.目前图像分割中使用的主干网络主要以编码-解码器为主,DeepLabv3+[7]的编码模块为带有空洞卷积的DCNN,其后为带有空洞卷积的金字塔池化模块,并引入解码模块将低级信息与高级信息进行融合.EfficientNet[8]通过增加网络宽度、深度以及图像分辨率提升网络的性能,通过复合模型扩张方法并结合神经网络搜索技术决定增加的数量.上述网络对于特征提取比较准确,但是参数量较大导致推理速度较慢.本文提出一种轻量级的主干网络,具有更少的参数同时保持较高的准确度和速度.

2)多尺度空洞卷积特征融合网络:神经网络的感受野大小对于大尺度对象的检测和分割具有重要影响.在早期的神经网络中通过增加网络的深度来增大感受野,VGGNet[9]通过增加网络层数增大网络的感受野,使其在图像相关任务中取得比较好的效果.

3)混合注意力网络:近年来注意力机制[10]经常作为一种插件应用在神经网络中,并且对网络的训练效果有显著的提升.注意力机制主要有空间域注意力、通道域注意力、混合域注意力等.ECA-Net[11]在SENet[12]的基础上提出一种新的通道注意力机制,它在增加通道之间的交互、降低复杂度的同时保持性能.EPSANet[13]是一种新的高效金字塔注意力分割模块(Efficient Pyramid Split Attention,EPSA),它可以有效地提取更细力度的多尺度空间信息,同时可以建立更长距离的通道依赖关系.Hou等[14]提出CA(Coordinate Attention)注意力机制可以捕获跨通道的信息,同时能够感知方向信息以及位置信息,使模型可以更准确地定位目标区域.但是在以上注意力机制的实现过程中,准确率和效率之间很难达到平衡.

基于以上分析,本文提出一种基于LaneSegNet的高效车道线检测方法.主要贡献如下:

1) 提出一种DDConv(Double Down sampling Convolution)模块和DUConv(Double Upsampling Conolution)模块.通过DDConv模块构建Lane-Net编码器,用于提取车道线特征信息;通过下采样减少网络的运算量;通过DUConv模块建立 Lane-Net解码器,用于逐步恢复图像分辨率.

2) 根据车道线的形态特征,提出一种多尺度空洞卷积特征融合网络 (Multi-scale Dilated convolution Feature fusion Network,MDFN),使用并行与串行相结合的空洞卷积增大网络的感受野,选择合适的空洞率避免出现网格效应,使网络能够捕捉较大尺度的特征信息.

3) 针对道路场景图像中含有较多的噪声信息提出一种混合注意力网络(Hybrid Attention Network,HAN),使用平均池化和最大池化获取全局位置权重,使用多次卷积得到通道权重,可以增强网络的性能.

2.1 LaneSegNet模型

LaneSegNet模型是由主干网络(Lane-Net)、多尺度空洞卷积特征融合网络(MDFN)和混合注意力网络(HAN)组成的一种深度卷积神经网络.网络整体架构如图2所示,主干网络Lane-Net为编码器-解码器结构,由DDConv和DUConv模块组成,网络中使用非对称卷积,具备参数量少、运算速度快的特点,能快速准确地检测出车道线.在主干网络中使用连续的卷积提取出车道线的特征,最后使用并行的空洞卷积获取较大尺度的感受野,增加分割的精度,通过混合注意力网络可以有效增强与当前任务相关的特征.以上步骤构成了LaneSegNet网络,形成了一个端到端的车道线检测网络.

图2 LaneSegNet网络结构Fig.2 Structure of the proposed LaneSegNet network

2.2 DDConv网络

目前图像分割研究通常使用更深层的卷积神经网络来提升模型的性能,网络层数越多,能够提取的特征就更丰富,但是网络深度增加会导致模型的参数量增加和计算量的上升,对于车道线分割任务来说,在保证准确率可行的情况下,实时检测是非常重要的,更多的网络层数在一定程度上能够提升检测效果,但是参数量增加会导致检测速度明显下降.为了平衡网络的速度和准确率,在主干网络中使用非对称卷积[15]来降低网络的参数量,加快网络的训练和推理速度.车道线分割任务相比其他任务来说,特征更少,MaxPooling下采样时只保留局部最大值,其他值均丢弃,步长为2的标准卷积下采样的结果为局部特征计算的总和,最后将两种操作结果相加,这种结合方案可以很好地避免单一下采样丢失过多车道线特征.

图3 DDConv网络结构Fig.3 DDConv network structure

图3中的x为DDConv模块的输入特征,首先特征信息会依次经过1×1卷积和非对称的3×3卷积进行特征提取,这个过程可以表示为

E0=C3×1(C1×3(C1×1(x)))+x,

(1)

其中,E0表示DDConv模块提取的特征信息,C1×1表示卷积核大小为1×1的卷积函数,C3×1和C1×3表示组成非对称卷积的两个函数.为了减少网络的计算量,在DDConv模块中提取特征之后会进行下采样操作,这个过程可以表示为

(2)

2.3 DUConv网络

在图像分割任务中,通常先使用编码网络提取特征信息并减少图像分辨率,然后使用解码网络在恢复出原始信息的同时恢复图像大小,但是在特征提取的过程中会丢失部分信息导致一些特征难以恢复.UpSample直接使用插值的方式扩充特征图,计算过程较为简单,转置卷积上采样时可以像普通卷积一样学习参数,恢复出更多的特征.所以本文采用上述两种上采样方法,尽可能恢复出更多的特征信息.

图4 DUConv网络结构Fig.4 DUConv network structure

图4中的x为输入到DUConv模块的特征,首先特性信息会通过一个1×1卷积和非对称的3×3卷积,然后通过并联UpSampling2D以及Conv2Dtranspose来进行上采样,尽可能恢复出较多的原始特征,最后通过1×1卷积融合两部分特征信息.这个过程可以表示为

Y=C1×1(C1×3(C3×1(UP(x)+CT(x)))),

(3)

式中,UP(·)表示双线性插值上采样,CT(·)表示反卷积,Y表示DUConv模块的输出.

2.4 多尺度空洞卷积特征融合网络

空洞卷积被广泛应用于语义分割[16-17]任务中,通过在常规卷积中引入空洞率,使得网络可以任意增大其感受野.车道线在整个图像中像素比较少,但跨度较大,表现为细长的形态结构,感受野的大小对车道线分割来说至关重要,标准卷积有限的感受野只能感受到局部的车道线特征,使用空洞率为偶数的组合会导致网格效应,因此本文提出一种多尺度空洞卷积特征融合网络,通过设置奇数空洞率的串行卷积块组成空洞卷积层,在避免网格效应的同时也增强了卷积结果之间的相关性.

图5中多尺度空洞卷积特征融合网络采用的第1层的空洞率(d)为1,第2层的空洞率分别为2、5、9和13,第3层的空洞率分别为7、13、19和25.多尺度空洞卷积特征融合网络的输入可以定义为x,高度为h,宽度为w,通道数为c,所以在一次空洞卷积中可以表示为Gd=PRelu(BN(Convd(x))),其中Convd(·)为空洞率d的空洞卷积,BN(·)为归一化操作,PRelu(·)为激活函数.Gd表示空洞率为d的空洞卷积层.

图5 多尺度空洞卷积特征融合网络结构Fig.5 Multi-scale dilated convolution feature fusion network structure

P1=G1(x),

(4)

其中,Pi为第i层的输出,并行空洞卷积第1层空洞率为1.

第2层将第1层卷积的结果和原输入特征相加再进行空洞率依次为2、5、9和13的卷积操作,即

P2=G13(G9(G5(G2(x+P1)))).

(5)

第3层将第2层卷积的结果和原输入特征相加再进行空洞率依次为7、13、19和25的卷积操作,即

P3=G25(G19(G13(G7(x+P2)))).

(6)

多尺度空洞卷积特征融合网络输出的结果为3个并行层的结果之和.即

P=P1+P2+P3,

(7)

其中,P为整个多尺度空洞卷积特征融合网络的输出.

2.5 混合注意力网络

计算机视觉中处理的对象一般包含较多噪声信息,这些噪声特征会显著降低神经网络[18]模型的性能.车道线通常处于图像的下半部分,位置相对固定,空间注意力能关注并有效捕捉到车道线特征信息.分割车道线要求在提取特征的同时尽可能地捕捉到全局的特征,建立通道间的依赖关系,以往通道注意力模块直接将特征图压缩到1×1×C大小,以获得通道注意力分数,并没有关注通道间的依赖关系.本文提出一种混合注意力网络通过逐步减少特征维数,融合通道之间的特征,然后再逐步恢复到原来通道维数,从而获得通道之间的依赖关系,得到通道注意力分数,最后与空间注意力结合,最终得到混合注意力分数.

图6为混合注意力网络结构.对于原始特征x首先使用全局最大池化和全局平均池化获得空间注意力得分,然后使用1×1卷积进行融合.具体为

K=Softmax(C1×1(GAP(x)+GMP(x))),

(8)

6 混合注意力网络结构Fig.6 Hybrid attention network structure

式中,GMP(·)表示全局最大池化,GAP(·)表示全局平均池化,Softmax(·)为Softmax归一化函数,保证所有通道的和为1.接着使用先下采样再上采样的方法获取混合注意力分数,即

(9)

B=H+K,

(10)

其中,B为混合注意力网络的最终输出,通过多种方式获取特征图的注意力分值,得到鲁棒的加权特征.

2.6 损失函数

对于车道线分割任务来说,车道线像素只占整幅图像的很小部分区域,所以存在正负样本分布不均衡的问题.针对这一问题LaneSegNet算法选择在Dice损失函数的监督下进行训练.

(11)

3.1 实验参数设置

本文实验在Windows开发平台训练及测试,使用python语言实现,选择基于Tensorflow和Keras深度学习框架对模型进行部署.在模型参数设置方面,选择Adam优化器进行参数优化,损失函数选择DiceLoss损失函数,学习率初始值为0.001,batch size设置为4.在对模型进行训练时,输入图像大小调整为512×512像素.

3.2 数据集

为了有效验证本文提出的LaneSegNet模型,选取了TuSimple数据集(http:∥benchmark.tusimple.ai)以及CULane[19]数据集分别进行训练.TuSimple数据集采集的是结构化道路图像,共有3 626张训练图片和2 782张测试图片,数据集中包含的图像类别有白天不同的时间段、不同的车道数目以及不同的交通状况.CULane数据集共有133 235张图片,其中88 880张图片用作训练,9 675张图片用作验证,34 680 张图片用作测试.数据集中共有9个场景,包括常规、拥堵、夜间、非结构化、阴影、箭头、强化、弯道和路口.

3.3 算法评价标准

在语义分割中准确率(A)是模型分割效果经常使用的评价指标.语义分割中的准确率表示预测正确的像素点在样本中所占的比例,通常准确率越高表示模型的分割效果越好.准确率的定义如下:

(12)

在深度学习中可以使用F值(F-measure)判断模型的优劣,F值又被称为F1分数,它表示的是精确率(P)和召回率(R)的加权调和平均,F1分数的定义如下:

(13)

在F1的定义中经常将参数β设置为1,F1分数越高表明模型越优秀.本文使用准确率、F1、速度(fps)综合评估LaneSegNet模型,验证其性能.

3.4 实验结果与分析

图7为LaneSegNet算法在TuSimple数据集上检测的效果.在无标线的道路场景下,由于在训练阶段经过多遍重复性的训练,即使没有车道线信息,根据归纳性偏好[20]的特点模型推理时会优先假设在合适的位置存在车道线,借助道路边缘信息辅助在分割阶段也会分割出较为合理的车道线.对于存在车辆遮挡的场景中,由于网络能够感受到图像的全局信息,可以依靠周围车流的走向对车道线进行定位.从图7中可以看出,本文方法在各种路况下都能够准确地检测出车道线,对无标线(图7a)、阴影(图7b)、低光照(图7c)和有车辆遮挡(图7d)情况下的车道也具备良好的推理效果.

图7 TuSimple数据集结果对比Fig.7 Comparison of lane line detection on TuSimple

表1为本文模型和其他模型在TuSimple数据集上的实验结果,可以看出本文模型的准确率最高,达到了97.6%.并且4种模型中本文方法检测速度最快,达到34.5 fps.本文方法保持较快的速度和较高的准确度的原因主要是由于在主干网络中具有较深的卷积,增强了网络的特征提取能力,同时使用非对称卷积降低参数量和运算量,使网络保持较快的运行速度.SAD和PINet模型由于具有较多的参数导致在车道线检测的过程中表现较差.在检测准确率和检测速度上SCNN和SAD并没有产生较大的差距.基于LaneSegNet模型的检测准确度都优于其他模型,且检测速度较快,可以满足实时性要求.

表1 TuSimple车道线检测准确率比较

表2为各种算法在CULane数据集上的实验结果,从结果可以看出,除了非结构化路面和路口,本文算法在其他7种情况下均取得了较好的效果.非结构化道路由于路况较为复杂,没有清晰的车道线和道路边界,道路几何特征较为模糊,受到其他因素影响较大,网络提取车道线特征与其他情况相比更为困难.在路口情况下车道线与其他路面有较大的差别,它含有更多较复杂的车道线,对网络提取特征的能力要求更高.

表2 CULane车道线检测准确率比较(IoU=0.5)

为了验证本文方法的有效性,对本文模型进行消融实验,实验结果如表3所示,其中α表示主干网络,β表示混合注意力网络,γ表示多尺度空洞卷积特征融合网络.通过实验数据可知,在本文方法中加入混合注意力网络后可以使模型的准确率(A)提升1.1个百分点,F1提升0.5个百分点,损失函数(L)下降0.016;加入多尺度空洞卷积特征融合网络可以使模型的A提升1.3个百分点,F1提升1.0个百分点,L下降0.018;加入混合注意力网络和多尺度空洞卷积特征融合网络可以使模型的A提升2.1个百分点,F1提升1.1个百分点,L下降0.03.综上所述,本文提出的混合注意力网络可以在一定程度上使模型更加关注与当前任务相关的特性信息,提升网络的检测性能;提出的多尺度空洞卷积特征融合网络可以有效提升模型的感受野,增加图像分割的准确率.

表3 LaneSegNet消融实验

本文针对车道线检测方法准确率不足以及速度较慢的问题,提出了一种高效的车道线检测算法LaneSegNet.首先主干网络中使用非对称卷积可以有效减少网络参数量,快速提取车道线特征信息;使用空洞卷积扩大网络的感受野;通过注意力网络增强特定特征信息.在公开基准数据集上进行实验,验证了本文算法的有效性.本文算法中增加了很多注意力网络模块导致网络训练过程中参数的增加,将会相应地增加训练和推理时间,因此在后续的研究工作中,在不影响网络性能的前提下将进一步优化网络,提升模型检测效率.

猜你喜欢 空洞车道准确率 基于OpenCV的直道车道线识别技术研究汽车实用技术(2022年5期)2022-04-02北斗+手机实现车道级导航应用卫星应用(2021年11期)2022-01-19番茄出现空洞果的原因及防治措施今日农业(2021年11期)2021-11-27避免跟车闯红灯的地面车道线科学大众(2021年9期)2021-07-16乳腺超声检查诊断乳腺肿瘤的特异度及准确率分析健康之家(2021年19期)2021-05-23不同序列磁共振成像诊断脊柱损伤的临床准确率比较探讨医学食疗与健康(2021年27期)2021-05-132015—2017 年宁夏各天气预报参考产品质量检验分析农业科技与信息(2021年2期)2021-03-27颈椎病患者使用X线平片和CT影像诊断的临床准确率比照观察健康体检与管理(2021年10期)2021-01-03如何避免想象作文空洞无“精神”学生天地(2020年18期)2020-08-25斑马线前该如何礼让汽车与安全(2017年7期)2017-09-12推荐访问:高效 车道 检测方法
上一篇:基于深度三维形变的单张3D人脸重建算法
下一篇:人性的内在维度何以构成学习的根本基础——生成教育理论的视角

Copyright @ 2013 - 2018 优秀啊教育网 All Rights Reserved

优秀啊教育网 版权所有