Bluemo's Brain

Search

Search IconIcon to open search

GAN

Last updated Dec 16, 2022 Edit Source

    今さら聞けないGAN(1) 基本構造の理解 - Qiita

    • 対象読者ど真ん中な感じ
    • Discriminator
    • Generator
    • 学習
      • 「真データを使って、Discriminatorのみを学習」
      • 「Discriminatorを使って、Generatorを訓練」
      • の二つを交互?にやる感じかな
    • Loss Function
      • image
      • $\mathbb{E}$の意味がわからないな
      • Discriminatorの学習では、V(D, G)を最大化させたい
        • $\log D(x)$を最大化したい = 真データ(x)の時に1を出力させたい
        • $\log (1-D(G(z)))$を最大化したい = 偽データ(G(z))の時に0を出力させたい
      • Generatorの学習の時は、V(D,G)を最小化させたい
        • $\log (1-D(G(z)))$を最小化したい = 偽データ(G(z))の時に1を出力させたい
        • つまり、Discriminatorと真逆の方向に学習