EnlightenGAN: Deep Light Enhancement without Paired Supervision

  • unpair 的低光照增强

效果看起来真的很给力.. 别人家的 GAN 啊.. 哭爆了

主要解决什么问题

解决的思路

20190710171801.png

有一个 self feature preserving loss 挺有意思的,作者表示 perceptual loss 可以保留 content 信息。

核心知识点

把 illumination channel 当做 attention..

先 norm 到 [0,1],然后再取反(1-i)。

作者表示这个 attention map 是一种 self-regularization,而不是 learned with supervision..

这个 attention map 然后就拿来在 unet 右侧的 upsample 的过程中乘到 feature map 上。而且也乘到最后的 output image 上,就相当于是 unet 的输出是图片 的 residual 的 R 部分。

作者用两个 Discriminator ,一个处理 local ,另一个处理 global..

D 都是 LSGAN + RelativisticGAN + PatchGAN..

存在的问题

改进(?)

先不说

other comment

思路很好,用 improve classification 来衡量 enhance 的效果

参考中,用 semantic pixel labeling of aerial imagery 的效果来衡量 cross view ground level scene prediction 的效果。