工程科学与技术   2019, Vol. 51 Issue (3): 192-197
基于无参考图像获取能见度的车载视频自适应去雾算法
李炎炎, 杜玉龙, 龙伟, 赵瑞朋, 陈金戈     
四川大学 制造科学与工程学院,四川 成都 610065
基金项目: 中国博士后科学基金项目(198606);四川大学博士后中央财政专项研究基金项目(2018SCU12065)
摘要: 为解决雾天环境下车辆环境感知困难的问题,针对车行视程去雾算法无法自动获取能见度、复原图像色彩过饱和、细节丢失严重等情况,克服传统器测法和目测法对能见度获取的非实时性及主观性,提出了一种改进的非线性二分求根算法,利用无参考图像空域质量评价指标(BRISQUE)对能见度进行实时修正,最终实现了能见度的自动估值。作者改进了大气能见度与车行可视距离的关系函数,由改进后的车行可视距离求出的透射率值与实际透射率相比误差减小,降低Halo效应的产生、增加了图像细节信息。实验表明,利用能见度求出的透射率估值在大气光散射模型下能够自适应的处理雾霾视频,复原出的视频图像画质清晰,色彩鲜艳亮丽不失真且能保留大量的图像信息,处理过程视频流畅无卡顿,对于在雾天环境中交通场景不断变化的车载视频也有良好的去雾效果。
关键词: 车行视程    二分法    能见度    视频去雾    
Self-adaptive Defogging Algorithm for Vehicle Video with Automatic Estimation of Visibility
LI Yanyan, DU Yulong, LONG Wei, ZHAO Ruipeng, CHEN Jinge     
School of Manufacturing Sci.and Eng., Sichuan Univ., Chengdu 610065, China
Abstract: In order to solve the problem of vehicle environment perception in foggy environment, aiming at the situation that the algorithm of vehicle visual distance defogging can not automatically acquire visibility, restored image color oversaturation, and loss of details seriously, etc, an improved non-linear dichotomy root-finding algorithm , which utilizes the spatial quality of no-BRISQUE revises the visibility in real time, and finally realizes the automatic evaluation of visibility, is proposed to overcome the non-real-time and subjectivity of visibility acquisition by traditional instrument measurement and visual measurement methods. An improved non-linear dichotomy root-finding algorithm is proposed,. The relationship function between atmospheric visibility and vehicle visual distance is improved. The error between the transmittance value calculated from the improved vehicle visual distance and the actual transmittance is reduced, the Halo effect is reduced, and the image details are increased. Experiments show that the transmittance estimation based on visibility can adaptively process haze video under atmospheric light scattering model. The reconstructed video image has clear picture quality, bright color and no distortion, and can retain a large amount of image information. The processing video is smooth and no jamming. It also has good fog removal effect for vehicle video with changing traffic scenes in foggy environment.
Key words: vehicle vision    dichotomy    visibility    video fogging    

日益严重的车行道路环境灾害,使得车辆环境感知的避险技术研究受到人们的高度重视,而针对恶劣天气条件的车辆机器视觉感知技术研究是其中的重点,尤其在雾霾或雨雾视频图像清晰化处理方面的理论技术是该领域研究的一个热点。然而,交通车行场景中视频图像去雾的恢复处理,是一个实时性极强的不确定逆问题,车行环境中能见度与可视距离的时变性使不少理论技术成果要走向实用化还有相当距离。

目前,利用图像增强和基于物理模型是两类主要的去雾方法。但图像增强法不考虑图像降质的本质原由,仅从增加图像对比度和凸显有用细节入手,虽然在一定程度上有去雾的效果,但丢失了很多细节信息,未能从根本上解决图像降质问题。基于物理模型是当前广为使用的一种去雾方法,He等[1]提出的暗原色先验理论,在物象亮度接近天空光亮度时,这种基于统计规律得出的先验去雾法将失效;对此,陈书贞等[2]引入混合通道结合全变差正则化(full variation regularization)方法对暗原色法进行改进,但其暗通道阈值T和亮度L难以确定;龙伟等[3]通过改进暗原色算法精细化透射率,减少暗原色先验透射率粗糙引起的Halo效应和边缘残雾,但是通过引导滤波在暗原色图中去求取透射率会消耗大量的时间;刘国等[4]引入了一个合适的阈值K来限定透射率的取值范围,避开了引导滤波求取透射率的时间复杂度,对单幅图像达到了自适应去雾;李炎炎等[5]针对恶劣交通环境下行车安全,提出了基于车行视程的视频快速去雾处理,此方法在能见度选取正确情况下可获得较好的去雾效果,但车行环境的时变性使得这种方法的实用性受到限制。为此作者通过二分法求根协同BRISQUE评价指标自动估值当前车行环境的能见度值,利用能见度与车行可视距离的关系函数求取透射率,对车载视频进行自适应的去雾处理。

1 简化大气衰减模型

早期,Nayer[6]和Narasimhan[7]等在雾霾图像退化的物理模型基础之上,提出了现目前广泛应用的大气散射模型:

$E = {I_\infty }\gamma {{\rm e}^{{\rm{ - }}\beta {d_{x}}}} + {I_\infty }(1 - {{\rm e}^{{\rm{ - }}\beta {d_{x}}}})$ (1)

式中, $E$ 为退化图像, ${I_\infty }$ 为整体大气光强度, $\gamma $ 为标准的光辐强度, $\beta $ 为雾霾环境下大气的总散射因子, ${d_{x}}$ 为场景深度, ${{\rm e}^{ - \beta {d_{x}}}}$ 为透射率。

依据大气辐照的原理 ${J_{x}} = {I_\infty }\gamma $ ,透射率可用 ${t_{x}} = {{\rm e}^{ - \beta {d_x}}}$ 表示,简化后的大气衰减模型如下:

${J_{x}} = {I_\infty } + \frac{{E - {I_\infty }}}{{{t_{x}}}}$ (2)

式中, ${J_{x}}$ 为退化前的清晰图像。式(2)是一个病态的反问题,从雾霾图像中获得透射率和大气光值是求得清晰图像的关键所在。

2 改进车行视程的透射率估值

经研究统计发现,一定条件下能见度与车行可视距离之间存在着函数关系,而这种特定的条件在车辆交通环境中通常有如表1的划分标准[5]

表1 能见度L与可视距离d关系 Tab. 1 Relationship between visibility and visibility distance

2.1 透射率估值

李炎炎等[5]提出了基于车行视程的透射率估值模型。它反映了透射率受大气能见度与车行可视距离共同影响:

${t_{x}} = {{\rm e}^{ - \frac{{3.912}}{L}d}}$ (3)

式中:L为雾天下的能见度,m;d为场景深度,也被称为可视距离。基于透射率表达式,若假定目标物象景深不发生变化,随着雾气浓度的加深,视野能见度将会下降,当能见度下降到几乎不能看清前方物体时,即 $\lim\;L \to 0$ 时, $\lim\;{t_{x}} \to 0$ ,这时就称之为视线阻隔。如果雾气浓度小,视野就宽广,能见度就会变大,这时物象光线的传输率趋近于100%,等同于 $\lim\;{t_{x}} \to 1$ 但是现实情况下,物景光线在空气中不可能实现完全没有干扰的传输,在车辆运行的交通环境中,当能见度能够达到2 km时就认为物景光线实现完全透射,记此时的透射率为 ${t_{x\max}}$ 。当能见度低于20 m时,认为此时能见度被完全阻隔。为规定透射率 ${t_{x}}$ 在[0, 1]区间内,建立了如下大气透射率估值模型:

${t_{x}} = 1 - \frac{{{t_{x\max}} - {{\rm e}^{ - \frac{{3.912}}{L}d}}}}{{{t_{x\max}}}}$ (4)

利用最小二乘法原理对能见度与场景深度进行线性回归处理,推导出回归公式:

$d = \overline d + (L - \overline L )\frac{{\displaystyle\sum\limits_{i = 1}^n {({L_i} - \overline L )d} }}{{\displaystyle\sum\limits_{i = 1}^n {{{({L_i} - \overline L )}^2}} }}$ (5)

式中, ${L_i}$ $i$ 时刻的能见度值, $\overline L $ 为在同一雨雾浓度等级下车行环境的大气能见度平均值, $\overline d $ $i$ 时刻车行环境下的可视距离均值。将表1中能见度和可视距离各区域的最大值点带入式(5)推出 $d$ L的关系表达式:

$d = a \cdot L + 2.255$ (6)

式中, $a = 0.256\;1$ ,表示大气能见度反映在可视物象景深的减弱程度,通常称之为视程衰减因子。由此可以得到基于车行视程的透射率估值模型:

${t_{x}} = \frac{{{{\rm e}^{(0.5L + 4.410\;8) \cdot {{10}^{ - 3}}}}}}{{{{\rm e}^{{{(L + 8.821\;6)}/L}}}}}$ (7)
2.2 改进透射率估值

线性1次拟合得到的透射率值在恢复图像时会出现颜色过于饱和、去雾不完全等问题。对此本文重新推导可视距离与能见度关系表达式。经过3次拟合得到如下关系式:

$\begin{aligned}[b] d =\; & 0.544\;81 \times L - 0.000\;368{L^2} + \\ & 1.185\;2{{\rm e}^{ - 7}}{L^3} - 45.181\;5 \end{aligned} $ (8)

将式(8)代入式(4),得到新的透射率估值表达式:

${t_{x}} = \frac{{{{\rm e}^{1.066 \times {{10}^{ - 3}}L - 7.198 \times {{10}^{ - 7}}{L^2} + 1.292 \times {{10}^{ - 3}}{L^3} - 0.088}}}}{{{{\rm e}^{2.131 - 1.440 \times {{10}^{ - 3}}L + 2.584{L^2} - {{176.75}/L}}}}}$ (9)
2.3 引导滤波的大气光估值

由于从雾霾图像转换成灰度图并没有清除图中的雾气,所以直接将其作为大气光图的估计并不会产生十分明显的去雾效果,所以需要先对含雾图像的灰度图进行处理,再获取大气光值[8]。引导滤波是通过一个局部线性模型来平滑的过滤掉灰度图像中的雾气,同时能够保持图像的边缘信息。在该模型中,输入图像为E,引导图像为I,滤波后输出图像为q,在以k为中心像素的邻域窗口 ${\omega _k}$ 有如下关系:

${q_i} = {a_k}{I_i} + {b_k},\quad {\forall i \in {\omega _k}}$ (10)

式中, ${\omega _k}$ 为边长为 $r \times r$ 的正方形窗口, ${a_k}$ ${b_k}$ 为给定核窗口 ${\omega _k}$ 中的线性变换系数, $i$ ${\omega _k}$ 中的像素索引。为了保持更多的边缘信息,需要使输入图像E和输出图像 $q$ 之间的差值最小,即要求式(10)中的表达式取得最小值:

$\mathop {\min}\limits_{({a_k},{b_k})} \sum\limits_{i \in {\omega _k}} {[{{({q_i} - {e_i})}^2} - \varepsilon a_k^2]} $ (11)

为防止线性变换系数 ${a_k}$ 取值过大,引入正则平滑因子 $\varepsilon $ 。线性回归求解式(11)得:

${a_k} = \dfrac{{\dfrac{1}{{\left| \omega \right|}}\displaystyle\sum\limits_{i \in {\omega _k}} {{I_i}{e_i} - {\mu _k}{{{\overline e}_k}} } }}{{\sigma _k^2 + \varepsilon }}$ (12)
${b_k} = {{\overline e}_k} - {a_k}{\mu _k}$ (13)

式中, ${\mu _k}$ $\sigma\!_k^2$ 分别代表引导图I在窗口 ${\omega _k}$ 的均值和方差, $\left| \omega \right|$ 定义为窗口 ${\omega _k}$ 中包含的像素个数, ${{\overline e}_k} $ 定义为输入图像E ${\omega _k}$ 中的均值。

由于每个像素点会包含在多个领域窗口 ${\omega _k}$ 中,在不同 ${\omega _k}$ 中计算得到的 ${q_i}$ 也不同,故需要对 ${q_i}$ 进行平均处理,通过计算所有窗口中的 ${a_k}$ ${b_k}$ ,滤波输出如下:

$\begin{aligned}[b] & {a_k} = \frac{1}{{\left| \omega \right|}}\sum\limits_{k,i \in {\omega _k}} {({a_k}{I_i} + {b_k}) = {{\overline a}_i} } {I_i} +{{\overline b}_i},\\ & \overline {{a_i}} = \frac{1}{{\left| \omega \right|}}\sum\limits_{k \in {\omega _k}} {{a_k}} {{\overline b}_i} = \frac{1}{{\left| \omega \right|}}\sum\limits_{k \in {\omega _k}} {{b_k}} \end{aligned}$ (14)

以原始雾霾图像作为输入图,通过引导滤波获得滤波输出图像 ${q_i}$ ,为了解决图像复原问题,需要求得大气光值 ${I_\infty }$ ,而滤波输出的图像 ${q_i}$ 在所有窗口 ${\omega _k}$ 的像素均值就是大气光值。则获得如下大气光值:

${I_\infty } = \left(\frac{1}{{\left| \omega \right|}}\sum\limits_{k \in {\omega _i}} {{a_k}}\right){E_i} + \frac{1}{{\left| \omega \right|}}\sum\limits_{k \in {\omega _i}} {{b_k}} $ (15)

图1是利用引导滤波获取的雾霾图像大气光值,分别结合1次拟合与3次拟合得到的透射率值恢复雾霾图像的效果对比。

图1 不同透射率值恢复效果 Fig. 1 Different transmittance values restore effect

显然,3次拟合后得到的透射率值相比于1次拟合得到的透射率值在处理雾霾图像上去雾更彻底、细节信息保留更完整。

3 二分法自动估值能见度

车行视程去雾算法透射率的获取需要当前环境下的能见度值,目前,能见度观测方法主要有两类[9]:器测法和目测法。器测法主要使用透射仪和向前散射仪,但设备庞大不能满足车行环境的便携性要求。而目测法主观性强、规范性差,即使能估计到大气能见度值,但在车辆高速行驶的状况下频繁的人为调节能见度值以获得清晰地视频图像也是非常的危险。针对上述情况,作者提出了一种基于改进的非线性求根二分法模型,通过自动的估计当前行车环境下的能见度值,以获取最佳视频图像,避免了人机交互时对行车安全造成影响。

3.1 无参考图像空域质量评价(BRISQUE)

改进的二分法主要通过判断能见度在20~2 000 m范围内,不同能见度值下的图像清晰化效果,筛选出去雾效果最佳的图像。但在无参考图像情况下,准确客观地评价图像质量好坏是一个科学难题。对近几年在非特定失真的无参考图像评价体系中广为使用的5种方法做了性能对比[10]

表2中各种算法分别为:盲图像质量指数(BIQI)[11]、DCT统计信息盲图像完整性指数(BLIINDS-Ⅱ)、盲/无参考图像空域质量评价(BRISQUE)[1213]、基于失真辨识的图像真实性和完整性评价(DIIVINE)[14]、自然图像质量评价(NIQE)[15]。评价算法精确度的指标为:线性相关系数(LCC)、Spearman秩相关系数(SROCC)、Kendall秩相关系数(KROCC)。3种衡量指标值越大,说明评价算法与人眼视觉主观性越匹配,反之则偏离。因此选用性能最优且费时最少的BRISQUE评价指标作为本文判断车行视程能见度的基础,其值越小反映图像质量越好。

表2 算法平均性能 Tab. 2 Average performance of algorithms

3.2 二分法筛选能见度值的过程

交通环境中通常认定能见度在2 km时物景光线完全透射,能见度低于20 m时,视线被完全阻隔。据此条件,以能见度 $L_{\rm c} = $ 1 000 m为中心点,取该能见度值下的复原图像,再取步长 ${T_1} = \pm 500\;{\rm m}$ 所及的两个能见度值为 $L_1 = 500\;{\rm m}$ $L_1' = 1\;500\;{\rm m}$ 的复原图像,利用BRISQUE筛选出值最小的图像对应的能见度为新的中心点,如式(16):

$L_{\rm c}' = {L_{\min }}\left\{ {{B_{(L_i')}},{B_{({L_i})}},{B_{(L_{\rm c})}}} \right\}$ (16)

式中, ${B_{(L_{\rm c})}}$ 为在能见度为 $L_{\rm c}$ 时获取的复原图像BRISQUE值。以 $L_{\rm c}'$ 为新的中心, ${T_i}$ 为新的步长重复比较:

${T_i} = \frac{{{T_{i - 1}}}}{2}$ (17)
$\left\{ {\begin{aligned} & {{L_i} = {L_{\rm c}} - {T_i}},\\ & {L_i' = {L_{\rm c}} + {T_i}} \end{aligned}} \right.$ (18)

式中, ${L_i}$ $L_i'$ 分别为每次二分之后中心点的左右两点, $i$ 为划分次数。

车行环境中,假设车辆以法规规定的最高时速120 km/h行驶,即每秒通行距离为33 m。实验中,对每帧像素为 $790 \times 496$ 大小的图像评价耗时31 ms,要使能见度精度最少在33 m范围内,就需要步长 $T \le 33\;{\rm m}$ 。当 $i = 5$ 时, ${T_5} = 31.25\;{\rm m}$ ,即精度在 $31.25\;{\rm m}$ ,整个实验过程需要使用BRISQUE评价11次,共计0.3 s左右,故由此设定二分法阈值 $i = 5$ ,每1秒计算一次能见度值。为了使视频流畅不卡顿,将图像质量评价模块与视频复原模块独立分开,图像评价模块仅取复原处理后的每帧图像用以判断图像质量高低,然后返回最小BRISQUE值对应的能见度数值。经实验测试,视频复原模块处理每帧图像仅需32 ms,满足了视频图像24帧法所要求的每帧图像不超过42 ms规定[8]

4 结果讨论

为了验证本文算法效果,随机截取雾霾视频处理之后的1帧图像,采用平均梯度、信息熵和BRISQUE等评价标准与原图所包含的信息量、细节反差表达能力、清晰度进行比较。同时,用Brial SWS–200天气能见度仪采集得到的实际能见度值与实验反馈得到的能见度值作比较,直观了解实验偏差。去雾流程如图2所示。

图2 去雾流程 Fig. 2 Flow of defogging algorithm

不同算法去雾效果如图3所示,客观评价值及实验偏差见表3

表3 不同去雾算法效果与耗时 Tab. 3 Different defogging algorithm effects and time-consuming

图3 视频去雾截图 Fig. 3 Video defogging screenshot

图3的视频去雾处理截图中,He算法去雾后的图像整体偏暗且细节信息损失较为严重,由于暗原色算法复杂度高,处理每帧图像上的耗时远远超过了24帧法规定的时间,所以这种方法不适于用来处理视频图像。对于文献[5]提出的算法,虽在每帧图像处理的耗时上达到了视频处理的要求,但是在红色方框标注的地方比本文算法处理的图像有更多的光晕出现,在第2排图中还有去雾不完全、细节信息丢失等情况出现。表3中信息熵描述了图像的平均信息,值越大表示包含的信息量越多。平均梯度反映了图像对细节的表达能力,值越大说明图像越清晰。实验表明,本文算法处理的图像在各项评价指标上均有很好表现,且在处理速度上也很快。为进一步说明本文去雾的算法和自动获取的最佳图像算法可行并且处理效果显著,对一段雾天下的交通监控视频进行连续去雾处理,随机取出处理后的帧图像与原始视频图像作对比,结果如图4所示。

图4 雾天交通监控视频序列去雾效果截图 Fig. 4 Sketch of defogging effect of video sequence of traffic monitoring in foggy weather

图4中第1排为原始视频序列,第2排为使用本文算法去雾后对应的视频序列。在第2幅视频序列图中,雾气浓度出现了较大变化,通过二分法短时间内找到最佳能见度值进行去雾处理,处理后的图像仍能有很好的清晰度,整个过程流畅无卡顿。

5 结 论

作者提出的视频去雾自适应算法,很好地解决了基于车行视程的车载视频去雾算法能见度难以获取的问题,使视频图像保持最清晰的状态。虽然本算法获取的能见度在恢复视频图像取得了很好的效果,但与能见度仪测量的能见度值之间还是有一定的误差,后续还需要对算法进行一定的优化,使得能见度估值更加准确。

参考文献
[1]
He K,Sun J,Tang X. Single image haze removal using dark channel prior[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(12): 2341-2353. DOI:10.1109/TPAMI.2010.168
[2]
陈书贞,任占广,练秋生. 基于改进暗通道和导向滤波的单幅图像去雾算法[J]. 自动化学报, 2016, 42(3): 455-465.
[3]
龙伟,傅继贤,李炎炎,等. 基于大气消光系数和引导滤波的浓雾图像去雾算法[J]. 四川大学学报(工程科学版), 2016, 48(4): 175-180.
[4]
刘国,吕群波,刘扬阳. 基于自适应暗原色的单幅图像去雾算法[J]. 光子学报, 2018, 47(2): 179-186.
[5]
李炎炎,龙伟,覃宏超,等. 基于车行视程与大气光快速估值的车载视频去雾算法[J]. 工程科学与技术, 2017, 49(3): 217-222.
[6]
Nayar S K,Narasimhan S G.Vision in bad weather[C]//Proceedings of the 7th IEEE International Conference on Computer Vision.Keryara:IEEE,1999,2:820–827
[7]
Narasimhan S G,Nayar S K. Vision and the atmo-sphere[J]. International Journal of Computer Vision, 2002, 48(3): 233-254. DOI:10.1023/A:1016328200723
[8]
覃宏超,李炎炎,龙伟,等. 基于引导滤波和暗原色先验理论透射率估值的视频去雾算法[J]. 浙江大学学报(工学版), 2018, 52(7): 1302-1309.
[9]
许茜,殷绪成,李岩,等. 基于图像理解的能见度测量方法[J]. 模式识别与人工智能, 2016, 26(6): 543-551.
[10]
王志明. 无参考图像质量评价综述[J]. 自动化学报, 2015, 41(6): 1062-1079.
[11]
Moorthy A K,Bovik A C. A two-step framework for constructing blind image quality indices[J]. IEEE Signal Processing Letters, 2010, 17(2): 513-516.
[12]
Mittal A,Moorthy A K,Bovik A C. No-reference image quality assessment in the spatial domain[J]. IEEE Transactions on Image Processing, 2012, 21(6): 222-228. DOI:10.1109/TIP.2012.2214050
[13]
Saad M A,Bovik A C,Charrier C. Blind image quality assessment:A natural scene statistics approach in the DCT domain[J]. IEEE Transactions on Image Processing, 2012, 21(8): 3339-3352. DOI:10.1109/TIP.2012.2191563
[14]
Moorthy A K,Bovik A C. Blind image quality assessment:From natural scene statistics to perceptual quality[J]. IEEE Transactions on Image Processing, 2011, 20(12): 3350-3364. DOI:10.1109/TIP.2011.2147325
[15]
Mittal A,Soundararajan R,Bovik A C. Making acompletely blind image quality analyzer[J]. IEEE Signal Processing Letters, 2013, 20(3): 209-212. DOI:10.1109/LSP.2012.2227726