Comparative Study on Generative Adversarial Networks

  • Comparative Study on Generative Adversarial Networks

Comparative Study on Generative Adversarial Networks

这篇 comparative study 试图比较原版和各种不同修改版的 GAN 的异同之处。


$D(x)$ 是 x 来自原始数据而不是 $p_g$ 的概率。D 要最大化 $logD(x)$,而 G 要最小化 $log(1-D(G(z)))$。但是这样做的话 G 的梯度不适合用来训练,就把 objective function 修改一下,变成让D最大化 $logD(G(z))$

CGAN


Conditional Generative Adversarial Network,简称 CGAN,这里把噪声 z 和条件 y 同时送进 G。

LAPGAN

Laplacian Pyramid of Adversarial Networks,简称 LAPGAN,这里构建了一个拉普拉斯金字塔,金字塔的每一层是一个 CGAN

DCGAN

Deep Convolutional Generative Adversarial Networks,主要特点是:去掉了全连接和 pooling 层,全部使用卷积层;在 G 和 D 中都使用了 BN;在 G 中,除了最后一层,每一层之后都跟了 ReLU,而在 D 中,每一层后面跟了 LeakyReLU。

Adversarial Autoencoder

GRAN

InfoGAN

Imformation maximizing GANs,InfoGAN 把输入的 noise vector 分成两部分,一个是看做噪声z,一个是当做 latent code(c),然后把 z 和 c 同时输入给 G。在判别器的输出部分也进行了调整,同时输出一个 $c’$。

Q 网络用于判别结果对应的类别(c),实现上和 D 的结构相同,最后接一个全连接层输出

BiGAN


Bidirectional Generative Adversarial Networks。

它有个特点是可以保证得到全局最小值。

BiGAN 引入了一个 E 网络,把输入图转换成 latent vector,然后把图片和 vector 一起送给 D 进行分类。