論文の概要: Sequential training of GANs against GAN-classifiers reveals correlated
"knowledge gaps" present among independently trained GAN instances
- arxiv url: http://arxiv.org/abs/2303.15533v1
- Date: Mon, 27 Mar 2023 18:18:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 17:36:26.612875
- Title: Sequential training of GANs against GAN-classifiers reveals correlated
"knowledge gaps" present among independently trained GAN instances
- Title(参考訳): GAN分類器に対するGANの逐次訓練は、独立に訓練されたGANインスタンスに存在する相関した「知識ギャップ」を明らかにする
- Authors: Arkanath Pathak, Nicholas Dufour
- Abstract要約: 我々は、繰り返しGAN分類器を訓練し、分類器を「偽」するGANを訓練する。
本稿では, GAN訓練力学, 出力品質, GAN分類器の一般化に対する効果について検討する。
- 参考スコア(独自算出の注目度): 1.104121146441257
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern Generative Adversarial Networks (GANs) generate realistic images
remarkably well. Previous work has demonstrated the feasibility of
"GAN-classifiers" that are distinct from the co-trained discriminator, and
operate on images generated from a frozen GAN. That such classifiers work at
all affirms the existence of "knowledge gaps" (out-of-distribution artifacts
across samples) present in GAN training. We iteratively train GAN-classifiers
and train GANs that "fool" the classifiers (in an attempt to fill the knowledge
gaps), and examine the effect on GAN training dynamics, output quality, and
GAN-classifier generalization. We investigate two settings, a small DCGAN
architecture trained on low dimensional images (MNIST), and StyleGAN2, a SOTA
GAN architecture trained on high dimensional images (FFHQ). We find that the
DCGAN is unable to effectively fool a held-out GAN-classifier without
compromising the output quality. However, StyleGAN2 can fool held-out
classifiers with no change in output quality, and this effect persists over
multiple rounds of GAN/classifier training which appears to reveal an ordering
over optima in the generator parameter space. Finally, we study different
classifier architectures and show that the architecture of the GAN-classifier
has a strong influence on the set of its learned artifacts.
- Abstract(参考訳): 現代のGAN(Generative Adversarial Networks)は、現実的な画像を生成する。
従来の研究は、共同学習した識別器とは異なる「GAN分類器」の実現可能性を示し、凍結したGANから生成された画像を操作する。
このような分類器が機能することは、GANトレーニングに存在する「知識ギャップ」(サンプルをまたいだ分布外アーティファクト)の存在を確実にする。
我々は、GAN分類器を反復的に訓練し、(知識ギャップを埋めるために)分類器を「刺激」するGANを訓練し、GAN訓練力学、出力品質、GAN分類器の一般化に対する効果を検討する。
低次元画像(mnist)で訓練された小型dcganアーキテクチャと,高次元画像(ffhq)で訓練されたsoma ganアーキテクチャであるstylegan2について検討した。
その結果,DCGANは出力品質を損なうことなく,ホールドアウトしたGAN分類器を効果的に騙すことができないことがわかった。
しかし、StyleGAN2は出力品質を変更せずに保持された分類器を騙すことができ、この効果はジェネレータパラメータ空間におけるオプティマ上の順序を示すように見える複数のGAN/分類器トレーニングに持続する。
最後に, 異なる分類器アーキテクチャについて検討し, GAN分類器のアーキテクチャが学習成果の集合に強い影響を与えることを示す。
関連論文リスト
- U-KAN Makes Strong Backbone for Medical Image Segmentation and Generation [48.40120035775506]
Kolmogorov-Arnold Networks (KAN)は、非線形学習可能なアクティベーション関数のスタックを通じてニューラルネットワーク学習を再構築する。
トークン化中間表現であるU-KAN上に専用kan層を統合することにより,確立したU-Netパイプラインを検証,修正,再設計する。
さらに、拡散モデルにおける代替U-Netノイズ予測器としてのU-KANの可能性を探り、タスク指向モデルアーキテクチャの生成にその適用性を実証した。
論文 参考訳(メタデータ) (2024-06-05T04:13:03Z) - Compressing Image-to-Image Translation GANs Using Local Density
Structures on Their Learned Manifold [69.33930972652594]
GAN(Generative Adversarial Networks)は、画像から画像への変換のための複雑なデータ分散のモデル化において、顕著な成功を収めている。
既存のGAN圧縮法は主に知識蒸留や畳み込み分類器の刈り取り技術に依存している。
学習多様体上の元のパラメータ重モデルの密度構造を保存するために,プルーンドモデルを明示的に促すことにより,新しいアプローチを提案する。
画像変換GANモデルであるPix2PixとCycleGANについて,様々なベンチマークデータセットとアーキテクチャを用いて実験を行い,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2023-12-22T15:43:12Z) - DuDGAN: Improving Class-Conditional GANs via Dual-Diffusion [2.458437232470188]
GAN(Generative Adversarial Network)を用いたクラス条件画像生成について,様々な手法を用いて検討した。
本稿では,DuDGANと呼ばれる2次元拡散型ノイズ注入法を取り入れたGANを用いたクラス条件画像生成手法を提案する。
提案手法は,画像生成のための現状条件付きGANモデルよりも性能的に優れている。
論文 参考訳(メタデータ) (2023-05-24T07:59:44Z) - Distilling Representations from GAN Generator via Squeeze and Span [55.76208869775715]
本稿では,GANジェネレータから知識を抽出し,その表現を抽出する手法を提案する。
我々は,合成ドメインの蒸留された表現を実領域に分散し,実際のトレーニングデータを用いてGANのモード崩壊を緩和する。
論文 参考訳(メタデータ) (2022-11-06T01:10:28Z) - Information-theoretic stochastic contrastive conditional GAN:
InfoSCC-GAN [6.201770337181472]
本稿では,探索可能な潜伏空間を有するコントラスト条件生成対向ネットワーク(Info SCC-GAN)を提案する。
インフォメーションSCC-GANは、入力データと潜時空間表現の間の相互情報の情報理論的定式化に基づいて導出される。
実験により、Info SCC-GANはAFHQとCelebAデータセットの画像生成において、"vanilla" EigenGANよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-12-17T17:56:30Z) - Rebooting ACGAN: Auxiliary Classifier GANs with Stable Training [45.70113212633225]
条件付き生成逆数ネットワーク(cGAN)は、クラス情報をGANに組み込んで現実的な画像を生成する。
最も一般的なcGANの1つは、ソフトマックスクロスエントロピー損失(ACGAN)を持つ補助分類器GANである。
ACGANはまた、多様性の欠如により容易に分類できるサンプルを生成する傾向がある。
論文 参考訳(メタデータ) (2021-11-01T17:51:33Z) - A Unified View of cGANs with and without Classifiers [24.28407308818025]
Conditional Generative Adversarial Networks (cGANs) は、クラス条件分布からサンプリングできる暗黙の生成モデルである。
いくつかの代表的cGANは、分類器を使わずに最先端のパフォーマンスに到達するのを避ける。
本研究では,cGANを改善するために,分類器を適切に活用できることを実証する。
論文 参考訳(メタデータ) (2021-11-01T15:36:33Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Unbiased Auxiliary Classifier GANs with MINE [7.902878869106766]
本研究では,MINE(Mutual Information Neural Estorimat)を用いたUnbiased Auxiliary GAN(UAC-GAN)を提案する。
UAC-GANは3つのデータセット上でAC-GANやTACGANより優れている。
論文 参考訳(メタデータ) (2020-06-13T05:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。