論文の概要: HGAN: Hybrid Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2102.03710v1
- Date: Sun, 7 Feb 2021 03:54:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 16:00:10.675022
- Title: HGAN: Hybrid Generative Adversarial Network
- Title(参考訳): hgan: ハイブリッド生成型adversarial network
- Authors: Seyed Mehdi Iranmanesh and Nasser M. Nasrabadi
- Abstract要約: 本稿では,自己回帰モデルを用いてデータ密度推定を行うハイブリッド生成逆数ネットワーク(HGAN)を提案する。
GAN定式化における新しい深層構造は、単純なGANトレーニング手法に加えて、自己回帰モデル情報を逆向きに蒸留するために開発されている。
- 参考スコア(独自算出の注目度): 25.940501417539416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a simple approach to train Generative Adversarial
Networks (GANs) in order to avoid a \textit {mode collapse} issue. Implicit
models such as GANs tend to generate better samples compared to explicit models
that are trained on tractable data likelihood. However, GANs overlook the
explicit data density characteristics which leads to undesirable quantitative
evaluations and mode collapse. To bridge this gap, we propose a hybrid
generative adversarial network (HGAN) for which we can enforce data density
estimation via an autoregressive model and support both adversarial and
likelihood framework in a joint training manner which diversify the estimated
density in order to cover different modes. We propose to use an adversarial
network to \textit {transfer knowledge} from an autoregressive model (teacher)
to the generator (student) of a GAN model. A novel deep architecture within the
GAN formulation is developed to adversarially distill the autoregressive model
information in addition to simple GAN training approach. We conduct extensive
experiments on real-world datasets (i.e., MNIST, CIFAR-10, STL-10) to
demonstrate the effectiveness of the proposed HGAN under qualitative and
quantitative evaluations. The experimental results show the superiority and
competitiveness of our method compared to the baselines.
- Abstract(参考訳): 本稿では,GAN(Generative Adversarial Networks)を訓練する簡単な手法を提案する。
GANのような暗黙のモデルは、抽出可能なデータ可能性に基づいて訓練された明示的なモデルと比較して、より良いサンプルを生成する傾向がある。
しかしgansは明示的なデータ密度特性を見落とし、望ましくない定量的評価とモード崩壊をもたらす。
このギャップを埋めるために,HGAN(Hybrid generation adversarial Network)を提案し,自己回帰モデルを介してデータ密度推定を強制し,異なるモードをカバーするために推定密度を多様化する共同トレーニング方法で,対人フレームワークと可能性フレームワークの両方をサポートする。
本論文では,自己回帰モデル(ティーチャー)からGANモデルのジェネレータ(学生)へ,その逆ネットワークを \textit {transfer knowledge} に用いることを提案する。
GAN定式化における新しい深層構造は、単純なGANトレーニング手法に加えて、自己回帰モデル情報を逆向きに蒸留するために開発されている。
実世界のデータセット(MNIST, CIFAR-10, STL-10)について, 定性的, 定量的な評価を行い, 提案したHGANの有効性を実証する。
実験の結果,本手法のベースラインに対する優位性と競合性が示された。
関連論文リスト
- RAFT: Reward rAnked FineTuning for Generative Foundation Model Alignment [19.597246703419135]
生成基礎モデルは、広範囲の教師なしのトレーニングデータから生じる暗黙のバイアスに影響を受けやすい。
我々は、生成モデルをより効率的に整合させるように設計された新しいフレームワーク、Reward rAnked FineTuningを紹介した。
論文 参考訳(メタデータ) (2023-04-13T18:22:40Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Less is More: Mitigate Spurious Correlations for Open-Domain Dialogue
Response Generation Models by Causal Discovery [52.95935278819512]
本研究で得られたCGDIALOGコーパスに基づくオープンドメイン応答生成モデルのスプリアス相関に関する最初の研究を行った。
因果探索アルゴリズムに着想を得て,反応生成モデルの学習と推論のための新しいモデル非依存手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T06:33:48Z) - Tailoring Language Generation Models under Total Variation Distance [55.89964205594829]
ニューラルネットワーク生成の標準パラダイムは、最適化方法として最大推定(MLE)を採用する。
言語生成に適用するための実践的境界を開発する。
本稿では,TVD推定のトレードオフのバランスをとるためのTaiLr の目標について紹介する。
論文 参考訳(メタデータ) (2023-02-26T16:32:52Z) - Generative Models with Information-Theoretic Protection Against
Membership Inference Attacks [6.840474688871695]
GAN(Generative Adversarial Networks)のような深層生成モデルは、多様な高忠実度データサンプルを合成する。
GANは、訓練されたデータから個人情報を開示し、敵の攻撃を受けやすい可能性がある。
本稿では,生成モデルがトレーニングデータに過度に適合しないようにし,一般化性を奨励する情報理論的動機付け正規化項を提案する。
論文 参考訳(メタデータ) (2022-05-31T19:29:55Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - Improving Model Compatibility of Generative Adversarial Networks by
Boundary Calibration [24.28407308818025]
境界キャリブレーションGAN(BCGAN)は、GANのモデル互換性を改善するために提案される。
BCGANはオリジナルのGANのようなリアルなイメージを生成するが、オリジナルのGANよりも優れたモデル互換性を実現する。
論文 参考訳(メタデータ) (2021-11-03T16:08:09Z) - ReMix: Towards Image-to-Image Translation with Limited Data [154.71724970593036]
本稿では,この問題に対処するためのデータ拡張手法(ReMix)を提案する。
特徴レベルでのトレーニングサンプルを補間し、サンプル間の知覚的関係に基づく新しいコンテンツ損失を提案します。
提案手法は, 生成のあいまいさを効果的に低減し, コンテンツ保存結果を生成する。
論文 参考訳(メタデータ) (2021-03-31T06:24:10Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Teaching a GAN What Not to Learn [20.03447539784024]
GAN(Generative Adversarial Network)は、本来、対象分布に従うことを学習する教師なし生成モデルとして構想されていた。
本稿では,ペルシアの有名な詩人ルミの思想に動機づけられたGAN問題に対して,異なる視点からアプローチする。
GANフレームワークでは、モデリングを学習しなければならないGAN陽性データだけでなく、回避しなければならないいわゆる負のサンプルも提示します。
この定式化により、判別器は、望ましくない生成サンプルをペナリゼーションすることで、基礎となるターゲット分布をより良く表現することができる。
論文 参考訳(メタデータ) (2020-10-29T14:44:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。