論文の概要: Structure-preserving GANs
- arxiv url: http://arxiv.org/abs/2202.01129v1
- Date: Wed, 2 Feb 2022 16:40:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 14:21:51.088095
- Title: Structure-preserving GANs
- Title(参考訳): 構造保存GAN
- Authors: Jeremiah Birrell, Markos A. Katsoulakis, Luc Rey-Bellet, Wei Zhu
- Abstract要約: 分散学習のためのデータ効率フレームワークとして,構造保存型GANを導入する。
我々は、不変判別器空間上のその射影に対して、判別器空間を減少させることができることを示す。
固有群対称性を持つ分布に対する対称性保存GANを構築することで、我々の枠組みを文脈化する。
- 参考スコア(独自算出の注目度): 6.438897276587413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs), a class of distribution-learning
methods based on a two-player game between a generator and a discriminator, can
generally be formulated as a minmax problem based on the variational
representation of a divergence between the unknown and the generated
distributions. We introduce structure-preserving GANs as a data-efficient
framework for learning distributions with additional structure such as group
symmetry, by developing new variational representations for divergences. Our
theory shows that we can reduce the discriminator space to its projection on
the invariant discriminator space, using the conditional expectation with
respect to the $\sigma$-algebra associated to the underlying structure. In
addition, we prove that the discriminator space reduction must be accompanied
by a careful design of structured generators, as flawed designs may easily lead
to a catastrophic "mode collapse" of the learned distribution. We contextualize
our framework by building symmetry-preserving GANs for distributions with
intrinsic group symmetry, and demonstrate that both players, namely the
equivariant generator and invariant discriminator, play important but distinct
roles in the learning process. Empirical experiments and ablation studies
across a broad range of data sets, including real-world medical imaging,
validate our theory, and show our proposed methods achieve significantly
improved sample fidelity and diversity -- almost an order of magnitude measured
in Fr\'echet Inception Distance -- especially in the small data regime.
- Abstract(参考訳): ジェネレータと判別器の間の2人のプレイヤーゲームに基づく分布学習のクラスであるgans(generative adversarial network)は、一般に、未知の分布と生成された分布との分岐の変動表現に基づいてミンマックス問題として定式化することができる。
本稿では,群対称性などの付加構造を持つ分布を学習するためのデータ効率フレームワークとして構造保存型GANを導入する。
我々の理論は、基底構造に付随する$\sigma$-algebraに関して条件付き期待値を用いて、判別子空間を不変判別子空間上のその射影に還元できることを示している。
さらに, 判別器空間の縮小には, 構造発電機の注意深い設計を伴わなければならないことを証明し, 欠陥設計は, 学習分布の破滅的な「モード崩壊」を引き起こす可能性がある。
固有群対称性を持つ分布に対する対称性保存型GANを構築し、同変生成器と不変判別器の双方が学習過程において重要であるが異なる役割を担っていることを示す。
実世界の医療画像を含む幅広いデータセットにおける経験的実験とアブレーションの研究は、我々の理論を検証し、提案手法がサンプルの忠実性と多様性を著しく改善していることを示した。
関連論文リスト
- Uniform Transformation: Refining Latent Representation in Variational Autoencoders [7.4316292428754105]
本稿では,不規則な潜伏分布に対応するために,新しい適応型3段階一様変換(UT)モジュールを提案する。
この手法は不規則分布を潜在空間の均一分布に再構成することにより、潜在表現の絡み合いと解釈可能性を大幅に向上させる。
実験により,提案するUTモジュールの有効性を実証し,ベンチマークデータセット間の絡み合いの指標を改良した。
論文 参考訳(メタデータ) (2024-07-02T21:46:23Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Heterogeneous Target Speech Separation [52.05046029743995]
我々は,非相互排他的概念を用いて興味のあるソースを区別できる単一チャネルターゲットソース分離のための新しいパラダイムを提案する。
提案する異種分離フレームワークは,分散シフトが大きいデータセットをシームレスに利用することができる。
論文 参考訳(メタデータ) (2022-04-07T17:14:20Z) - Cycle Consistent Probability Divergences Across Different Spaces [38.43511529063335]
確率分布の相違は、統計的推測と機械学習の核心にある。
本研究は, 異方性, 異方性, 異方性, 異なる空間上の分布をマッチングするための, アンバランスなモンジュ最適輸送定式化を提案する。
論文 参考訳(メタデータ) (2021-11-22T16:35:58Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - A Convenient Infinite Dimensional Framework for Generative Adversarial
Learning [4.396860522241306]
生成的対角学習のための無限次元理論的枠組みを提案する。
本フレームワークでは, 逆学習手順から生成元が誘導する分布とデータ生成分布とのJensen-Shannon分散が0に収束する。
論文 参考訳(メタデータ) (2020-11-24T13:45:17Z) - Generative Model without Prior Distribution Matching [26.91643368299913]
変分オートエンコーダ(VAE)とその変分は、いくつかの先行分布を満たすために低次元の潜在表現を学習することによって古典的な生成モデルである。
我々は、先行変数に適合させるのではなく、先行変数が埋め込み分布と一致するように提案する。
論文 参考訳(メタデータ) (2020-09-23T09:33:24Z) - Generalization Properties of Optimal Transport GANs with Latent
Distribution Learning [52.25145141639159]
本研究では,潜伏分布とプッシュフォワードマップの複雑さの相互作用が性能に与える影響について検討する。
我々の分析に感銘を受けて、我々はGANパラダイム内での潜伏分布とプッシュフォワードマップの学習を提唱した。
論文 参考訳(メタデータ) (2020-07-29T07:31:33Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - AI Giving Back to Statistics? Discovery of the Coordinate System of
Univariate Distributions by Beta Variational Autoencoder [0.0]
本稿では、単変量経験分布を分類し、累積分布関数(CDF)の入力に基づいて2次元の潜伏空間で表現するためのニューラルネットワークのトレーニング経験について論じる。
潜在2次元座標系上の表現は、CDFの形状、基礎となる理論分布とそのパラメータの分類確率、情報エントロピー、歪みなど、重要な分布特性を乱す実世界のデータの付加メタデータと見なすことができる。
論文 参考訳(メタデータ) (2020-04-06T14:11:13Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。