論文の概要: Hierarchical Modes Exploring in Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2003.08752v1
- Date: Thu, 5 Mar 2020 10:43:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 07:17:11.144119
- Title: Hierarchical Modes Exploring in Generative Adversarial Networks
- Title(参考訳): 生成型adversarial networkにおける階層的モード探索
- Authors: Mengxiao Hu, Jinlong Li, Maolin Hu, Tao Hu
- Abstract要約: 条件付き生成逆数ネットワーク(cGAN)では、2つの異なる初期ノイズが同じ条件情報とペアリングされた場合、マイナーモードは大きなモードに崩壊する可能性がある。
正規化項として目的関数に多様性測定を導入することにより,cGANのモード崩壊を軽減する階層型モード探索法を提案する。
- 参考スコア(独自算出の注目度): 14.557204104822215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In conditional Generative Adversarial Networks (cGANs), when two different
initial noises are concatenated with the same conditional information, the
distance between their outputs is relatively smaller, which makes minor modes
likely to collapse into large modes. To prevent this happen, we proposed a
hierarchical mode exploring method to alleviate mode collapse in cGANs by
introducing a diversity measurement into the objective function as the
regularization term. We also introduced the Expected Ratios of Expansion (ERE)
into the regularization term, by minimizing the sum of differences between the
real change of distance and ERE, we can control the diversity of generated
images w.r.t specific-level features. We validated the proposed algorithm on
four conditional image synthesis tasks including categorical generation, paired
and un-paired image translation and text-to-image generation. Both qualitative
and quantitative results show that the proposed method is effective in
alleviating the mode collapse problem in cGANs, and can control the diversity
of output images w.r.t specific-level features.
- Abstract(参考訳): 条件付き生成逆数ネットワーク(cGAN)では、2つの異なる初期ノイズが同じ条件情報と結合された場合、出力間の距離は比較的小さくなり、小さなモードが大きなモードに崩壊する可能性がある。
そこで本研究では,cGANにおけるモード崩壊を緩和するための階層型モード探索手法を提案する。
また、実際の距離変化とereとの差の和を最小化することにより、生成画像w.r.t特定レベル特徴の多様性を制御できる。
提案手法は,カテゴリ生成,ペア化,ペア化,非ペア化,テキスト対画像生成の4つの条件付き画像合成タスクで検証した。
定性的かつ定量的な結果から,提案手法はcganのモード崩壊問題の軽減に有効であり,出力画像の多様性を制御できることがわかった。
関連論文リスト
- A Simple Approach to Unifying Diffusion-based Conditional Generation [63.389616350290595]
多様な条件生成タスクを処理するための、シンプルで統一されたフレームワークを導入します。
提案手法は,異なる推論時間サンプリング方式による多目的化を実現する。
我々のモデルは、非親密なアライメントや粗い条件付けのような追加機能をサポートしています。
論文 参考訳(メタデータ) (2024-10-15T09:41:43Z) - Few-Shot Image Generation by Conditional Relaxing Diffusion Inversion [37.18537753482751]
条件拡散緩和インバージョン(CRDI)は、合成画像生成における分布の多様性を高めるために設計されている。
CRDIはいくつかのサンプルに基づいた微調整を頼りにしていない。
ターゲットの画像インスタンスの再構築と、数ショットの学習による多様性の拡大に重点を置いている。
論文 参考訳(メタデータ) (2024-07-09T21:58:26Z) - Improving Denoising Diffusion Probabilistic Models via Exploiting Shared
Representations [5.517338199249029]
SR-DDPMはノイズ拡散過程を逆転することで高品質な画像を生成する生成モデルのクラスである。
多様なデータ分布の類似性を利用して、画像の品質を損なうことなく、複数のタスクにスケールできる。
提案手法を標準画像データセット上で評価し、FIDとSSIMの指標で条件付きDDPMと条件付きDDPMの両方より優れていることを示す。
論文 参考訳(メタデータ) (2023-11-27T22:30:26Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - Contrast-augmented Diffusion Model with Fine-grained Sequence Alignment
for Markup-to-Image Generation [15.411325887412413]
本稿では,FSA-CDM (Contrast-augmented Diffusion Model with Fine-fine Sequence Alignment) という新しいモデルを提案する。
FSA-CDMは、マークアップ・ツー・イメージ生成の性能を高めるために、対照的な正/負のサンプルを拡散モデルに導入する。
異なるドメインの4つのベンチマークデータセットで実験が行われる。
論文 参考訳(メタデータ) (2023-08-02T13:43:03Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Large Scale Image Completion via Co-Modulated Generative Adversarial
Networks [18.312552957727828]
画像条件と最近の非条件生成アーキテクチャのギャップを埋める汎用的な新しいアプローチを提案する。
また,画像補完のための定量的指標が不十分なため,Paired/Unpaired Inception Discriminative Score (P-IDS/U-IDS)を提案する。
実験は、自由形式の画像補完における最先端の手法よりも品質と多様性の両面で優れた性能を示し、画像から画像への変換を容易に一般化する。
論文 参考訳(メタデータ) (2021-03-18T17:59:11Z) - Diverse Semantic Image Synthesis via Probability Distribution Modeling [103.88931623488088]
新規な多様な意味的画像合成フレームワークを提案する。
本手法は最先端手法と比較して優れた多様性と同等の品質を実現することができる。
論文 参考訳(メタデータ) (2021-03-11T18:59:25Z) - Rethinking conditional GAN training: An approach using geometrically
structured latent manifolds [58.07468272236356]
条件付きGAN(cGAN)は、生成された出力の多様性の欠如などの重大な欠点に悩まされる。
本稿では,バニラcGANの多様性と視覚的品質を両立させる新しいトレーニング機構を提案する。
論文 参考訳(メタデータ) (2020-11-25T22:54:11Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Multimodal Image-to-Image Translation via Mutual Information Estimation
and Maximization [16.54980086211836]
マルチモーダル画像画像変換 (Multimodal image-to-image translation, I2IT) は、ソース領域の入力画像が与えられた対象領域内の複数の可能な画像を探索する条件分布を学習することを目的としている。
このような条件分布をモデル化するために、条件生成逆ネットワーク(cGAN)がよく用いられる。
本稿では,cGANにおける潜在コードと出力画像間の相互情報を明示的に推定し,最大化する手法を提案する。
論文 参考訳(メタデータ) (2020-08-08T14:09:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。