論文の概要: Partition-Guided GANs
- arxiv url: http://arxiv.org/abs/2104.00816v1
- Date: Fri, 2 Apr 2021 00:06:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 14:02:39.617876
- Title: Partition-Guided GANs
- Title(参考訳): 分割ガイドガン
- Authors: Mohammadreza Armandpour, Ali Sadeghian, Chunyuan Li, Mingyuan Zhou
- Abstract要約: 私たちは、スペースを小さな領域に分割し、それぞれがよりシンプルな分布を持ち、各パーティションごとに異なるジェネレータを訓練するパーティションーを設計します。
これはラベルを必要とせずに教師なしの方法で実行される。
各種標準ベンチマーク実験の結果,提案手法が近年の手法を上回っていることがわかった。
- 参考スコア(独自算出の注目度): 63.980473635585234
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite the success of Generative Adversarial Networks (GANs), their training
suffers from several well-known problems, including mode collapse and
difficulties learning a disconnected set of manifolds. In this paper, we break
down the challenging task of learning complex high dimensional distributions,
supporting diverse data samples, to simpler sub-tasks. Our solution relies on
designing a partitioner that breaks the space into smaller regions, each having
a simpler distribution, and training a different generator for each partition.
This is done in an unsupervised manner without requiring any labels.
We formulate two desired criteria for the space partitioner that aid the
training of our mixture of generators: 1) to produce connected partitions and
2) provide a proxy of distance between partitions and data samples, along with
a direction for reducing that distance. These criteria are developed to avoid
producing samples from places with non-existent data density, and also
facilitate training by providing additional direction to the generators. We
develop theoretical constraints for a space partitioner to satisfy the above
criteria. Guided by our theoretical analysis, we design an effective neural
architecture for the space partitioner that empirically assures these
conditions. Experimental results on various standard benchmarks show that the
proposed unsupervised model outperforms several recent methods.
- Abstract(参考訳): GAN(Generative Adversarial Networks)の成功にもかかわらず、それらのトレーニングは、モード崩壊や不連結な多様体の集合を学ぶことの難しさなど、よく知られた問題に悩まされている。
本稿では,複雑な高次元分布を学習し,多様なデータサンプルをサポートし,より簡単なサブタスクを実現するという課題について述べる。
私たちのソリューションは、スペースを小さなリージョンに分割し、それぞれがよりシンプルな分散を持ち、パーティション毎に異なるジェネレータをトレーニングするパーティショナの設計に依存しています。
これはラベルを必要とせずに教師なしの方法で実行される。
1) 接続されたパーティションを生成するためと, 2) パーティションとデータサンプルの間の距離のプロキシを提供するためであり, その距離を減らすための方法である。
これらの基準は、存在しないデータ密度の場所からサンプルを作成することを避け、また、ジェネレータに追加の指示を与えることで訓練を容易にする。
上記の条件を満たすために空間分割器の理論的制約を開発する。
理論解析の導出により,我々は,経験的にこれらの条件を保証できる空間分割器のための効果的なニューラルアーキテクチャを設計した。
各種標準ベンチマーク実験の結果,提案手法が近年の手法を上回っていることがわかった。
関連論文リスト
- Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Deep Generative Sampling in the Dual Divergence Space: A Data-efficient & Interpretative Approach for Generative AI [29.13807697733638]
自然画像の生成的サンプリングにおける顕著な成果の上に構築する。
我々は、画像に似たサンプルを生成するという、画期的な挑戦を、潜在的に過度に野心的に提案する。
統計上の課題は、小さなサンプルサイズであり、時には数百人の被験者で構成されている。
論文 参考訳(メタデータ) (2024-04-10T22:35:06Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Combating Mode Collapse in GANs via Manifold Entropy Estimation [70.06639443446545]
Generative Adversarial Networks (GAN) は、様々なタスクやアプリケーションにおいて魅力的な結果を示している。
GANのモード崩壊問題に対処するための新しいトレーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-08-25T12:33:31Z) - Smoothing the Generative Latent Space with Mixup-based Distance Learning [32.838539968751924]
我々は、我々の関心の大規模なデータセットも、転送可能なソースデータセットも利用できない状況を考える。
本稿では,ジェネレータとディスクリミネータの両方の特徴空間における遅延混合に基づく距離正規化を提案する。
論文 参考訳(メタデータ) (2021-11-23T06:39:50Z) - Latent reweighting, an almost free improvement for GANs [12.605607949417033]
一連の作業は、計算コストの増大を犠牲にして、事前訓練された発電機からのサンプリング品質を改善することを目的としている。
遅延重みを予測するための追加ネットワークと、最も貧しいサンプルを避けるための2つの関連するサンプリング手法を導入する。
論文 参考訳(メタデータ) (2021-10-19T08:33:57Z) - Unrolling Particles: Unsupervised Learning of Sampling Distributions [102.72972137287728]
粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
粒子フィルタは様々なシナリオにおいて良好な推定値が得られることを示す。
論文 参考訳(メタデータ) (2021-10-06T16:58:34Z) - Lessons Learned from the Training of GANs on Artificial Datasets [0.0]
GAN(Generative Adversarial Networks)は,近年,現実的な画像の合成において大きな進歩を遂げている。
GANは不適合や過度に適合する傾向があり、分析が困難で制約を受ける。
無限に多くのサンプルがあり、実際のデータ分布は単純である人工データセットでトレーニングする。
GANのトレーニング混合物はネットワークの深さや幅を増大させるよりもパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2020-07-13T14:51:02Z) - The Bures Metric for Generative Adversarial Networks [10.69910379275607]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成する高性能な生成手法である。
実バッチの多様性と偽バッチの多様性を一致させることを提案する。
多様性マッチングはモード崩壊を著しく低減し, サンプル品質に肯定的な影響を及ぼす。
論文 参考訳(メタデータ) (2020-06-16T12:04:41Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。