論文の概要: A Unified View of cGANs with and without Classifiers
- arxiv url: http://arxiv.org/abs/2111.01035v1
- Date: Mon, 1 Nov 2021 15:36:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 14:54:43.398189
- Title: A Unified View of cGANs with and without Classifiers
- Title(参考訳): cGANの分類と非分類の統一的視点
- Authors: Si-An Chen, Chun-Liang Li, Hsuan-Tien Lin
- Abstract要約: Conditional Generative Adversarial Networks (cGANs) は、クラス条件分布からサンプリングできる暗黙の生成モデルである。
いくつかの代表的cGANは、分類器を使わずに最先端のパフォーマンスに到達するのを避ける。
本研究では,cGANを改善するために,分類器を適切に活用できることを実証する。
- 参考スコア(独自算出の注目度): 24.28407308818025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conditional Generative Adversarial Networks (cGANs) are implicit generative
models which allow to sample from class-conditional distributions. Existing
cGANs are based on a wide range of different discriminator designs and training
objectives. One popular design in earlier works is to include a classifier
during training with the assumption that good classifiers can help eliminate
samples generated with wrong classes. Nevertheless, including classifiers in
cGANs often comes with a side effect of only generating easy-to-classify
samples. Recently, some representative cGANs avoid the shortcoming and reach
state-of-the-art performance without having classifiers. Somehow it remains
unanswered whether the classifiers can be resurrected to design better cGANs.
In this work, we demonstrate that classifiers can be properly leveraged to
improve cGANs. We start by using the decomposition of the joint probability
distribution to connect the goals of cGANs and classification as a unified
framework. The framework, along with a classic energy model to parameterize
distributions, justifies the use of classifiers for cGANs in a principled
manner. It explains several popular cGAN variants, such as ACGAN, ProjGAN, and
ContraGAN, as special cases with different levels of approximations, which
provides a unified view and brings new insights to understanding cGANs.
Experimental results demonstrate that the design inspired by the proposed
framework outperforms state-of-the-art cGANs on multiple benchmark datasets,
especially on the most challenging ImageNet. The code is available at
https://github.com/sian-chen/PyTorch-ECGAN.
- Abstract(参考訳): Conditional Generative Adversarial Networks (cGANs) は、クラス条件分布からサンプリングできる暗黙の生成モデルである。
既存のcGANは幅広い異なる識別器の設計と訓練目的に基づいている。
初期の作業で一般的な設計の一つは、正しい分類器が間違ったクラスで生成されたサンプルを除去するのに役立つと仮定して、トレーニング中に分類器を含めることである。
しかし、cGANの分類子を含むと、容易に分類できるサンプルだけを生成する副作用が生じることが多い。
近年、いくつかの代表的cGANは、分類器を使わずに最先端の性能に到達することを避けている。
何らかの形で、分類器がより良いcganを設計するために復活できるかどうかは不明だ。
本研究では,cGANを改善するために,分類器を適切に活用できることを実証する。
まず、結合確率分布の分解を用いて、cGANの目標を接続し、統一的なフレームワークとして分類する。
このフレームワークは、分布をパラメータ化するための古典的なエネルギーモデルとともに、cGANに対する分類器の使用を原則的に正当化する。
ACGAN(英語版)、ProjGAN(英語版)、ContraGAN(英語版)などの一般的なcGAN変種を、異なるレベルの近似を持つ特別なケースとして説明している。
実験の結果,提案したフレームワークにインスパイアされた設計は,複数のベンチマークデータセット,特に最も困難なImageNetにおいて,最先端のcGANよりも優れていた。
コードはhttps://github.com/sian-chen/PyTorch-ECGANで公開されている。
関連論文リスト
- Sequential training of GANs against GAN-classifiers reveals correlated
"knowledge gaps" present among independently trained GAN instances [1.104121146441257]
我々は、繰り返しGAN分類器を訓練し、分類器を「偽」するGANを訓練する。
本稿では, GAN訓練力学, 出力品質, GAN分類器の一般化に対する効果について検討する。
論文 参考訳(メタデータ) (2023-03-27T18:18:15Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - UQGAN: A Unified Model for Uncertainty Quantification of Deep
Classifiers trained via Conditional GANs [9.496524884855559]
本稿では,GAN(Generative Adversarial Network)に基づく画像分類におけるディープニューラルネットワークの不確実性の定量化手法を提案する。
GAN の生成した OoD の例で分散データの全体を保護する代わりに,条件付き GAN によって生成されたクラスを別々に保護する。
特に、最先端のGAN学習に基づく分類器のOoD検出とFP検出性能を改善した。
論文 参考訳(メタデータ) (2022-01-31T14:42:35Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Improving Model Compatibility of Generative Adversarial Networks by
Boundary Calibration [24.28407308818025]
境界キャリブレーションGAN(BCGAN)は、GANのモデル互換性を改善するために提案される。
BCGANはオリジナルのGANのようなリアルなイメージを生成するが、オリジナルのGANよりも優れたモデル互換性を実現する。
論文 参考訳(メタデータ) (2021-11-03T16:08:09Z) - cGANs with Auxiliary Discriminative Classifier [43.78253518292111]
条件付き生成モデルは、データとラベルの基本的な結合分布を学習することを目的としている。
副分類器生成敵ネットワーク (AC-GAN) は広く用いられているが, 生成標本のクラス内多様性の低い問題に悩まされている。
本稿では,AC-GANの問題に対処するため,補助識別器(ADC-GAN)を用いた新しいcGANを提案する。
論文 参考訳(メタデータ) (2021-07-21T13:06:32Z) - Generalized Zero-Shot Learning via VAE-Conditioned Generative Flow [83.27681781274406]
一般化されたゼロショット学習は、意味的記述から視覚的表現へ知識を移すことによって、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
近年のGZSLはデータ不足問題として定式化されており、主にGANやVAEを採用して、目に見えないクラスの視覚的特徴を生成する。
GZSLのための条件付き生成フロー,すなわちVAE-Conditioned Generative Flow (VAE-cFlow)を提案する。
論文 参考訳(メタデータ) (2020-09-01T09:12:31Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Unbiased Auxiliary Classifier GANs with MINE [7.902878869106766]
本研究では,MINE(Mutual Information Neural Estorimat)を用いたUnbiased Auxiliary GAN(UAC-GAN)を提案する。
UAC-GANは3つのデータセット上でAC-GANやTACGANより優れている。
論文 参考訳(メタデータ) (2020-06-13T05:51:51Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。