图像增强论文精读笔记-GLADNet: Low-Light Enhancement Network with Global Awarenesss(GLADNet)
GLADNet论文精读笔记
1. 论文基本信息
-
论文标题:GLADNet: Low-Light Enhancement Network with Global Awarenesss
-
作者:Wenjing Wang等
-
发表时间和期刊:2018;FG conference

2. 研究背景和动机
-
局部光照变化处理不足:现有的低光照增强方法在处理不同区域光照不均的图像时效果不佳。部分区域可能过度增强,导致过曝光,而其他区域可能增强不足,仍然保持昏暗。
-
缺乏全局感知能力:大多数增强方法倾向于局部处理,无法充分利用图像的全局信息来协调不同区域的亮度与对比度,导致增强后的图像局部一致性差。
-
噪声放大和伪影问题:低光照图像中往往包含大量噪声,增强方法通常会放大这些噪声,导致最终的图像质量下降,产生伪影、噪声增加等现象。
3. 主要贡献
提出了一种具有全局光照感知和细节保持的网络(GLADNet)。该网络的架构可以分为两个步骤。为了获得全局光照预测,首先将图像下采样到固定大小,并通过一个编码-解码网络处理,称之为全局光照估计步骤。编码-解码网络的瓶颈层具有覆盖整个图像的感受野。步骤二是细节重建步骤,用于补充在缩放过程中丢失的细节。为了训练这样的网络,我们从在各种条件下拍摄的RAW图片中合成了一个训练数据集,并使用L1范数作为损失函数。
具体来说核心创新点有:
(1)全局光照感知机制:论文提出了一个具有全局感知能力的编码-解码架构,其中的瓶颈层具有足够大的感受野,可以覆盖整个图像,能够很好地估计全局光照。这种机制是对传统低光照增强方法(通常是局部处理)的突破。
(2)细节保持与光照增强的分离设计:与很多方法直接进行增强不同,GLADNet将光照估计与细节保持分离为两个独立的步骤,通过全局光照估计提升整体图像亮度,然后再利用细节重建网络恢复细节。这种设计使得模型能够在保持图像全局一致性的同时,避免细节丢失。
(3)基于L1范数的损失函数:为了更好地增强图像的细节,作者使用了L1损失函数代替传统的L2损失函数。L1损失函数更适合低光照增强任务,因为它能够减少模糊,并且对噪声不敏感
4. 方法和模型
(1) 网络总体架构图如下。增强的过程为分为两个步骤,分别是全局光照估计以及细节重建:
(2) 损失函数考虑到了L1Norm损失
5. 一些缺点
对于一些图像存在一些过曝现象

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐
所有评论(0)