論文の概要: Statistical Guarantees of Group-Invariant GANs
- arxiv url: http://arxiv.org/abs/2305.13517v3
- Date: Tue, 4 Jun 2024 19:48:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 04:36:49.848461
- Title: Statistical Guarantees of Group-Invariant GANs
- Title(参考訳): 群不変GANの統計的保証
- Authors: Ziyu Chen, Markos A. Katsoulakis, Luc Rey-Bellet, Wei Zhu,
- Abstract要約: GAN(Group-invariant Generative Adversarial Network)は、ジェネレータと識別器を群対称性で固定したGANの一種である。
本研究は,グループ不変な生成モデル,特にGANに対する最初の統計的性能保証を示す。
- 参考スコア(独自算出の注目度): 13.084804346845816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Group-invariant generative adversarial networks (GANs) are a type of GANs in which the generators and discriminators are hardwired with group symmetries. Empirical studies have shown that these networks are capable of learning group-invariant distributions with significantly improved data efficiency. In this study, we aim to rigorously quantify this improvement by analyzing the reduction in sample complexity for group-invariant GANs. Our findings indicate that when learning group-invariant distributions, the number of samples required for group-invariant GANs decreases proportionally by a factor of the group size. Importantly, this sample complexity reduction cannot be achieved merely through data augmentation due to the probabilistic dependence of augmented data. Numerical results substantiate our theory and highlight the stark contrast between learning with group-invariant GANs and using data augmentation. This work presents the first statistical performance guarantees for group-invariant generative models, specifically for GANs, and it may shed light on the study of other generative models with group symmetries.
- Abstract(参考訳): GAN(Group-invariant Generative Adversarial Network)は、ジェネレータと識別器を群対称性で固定したGANの一種である。
実験的な研究により、これらのネットワークはデータ効率を著しく改善し、グループ不変の分布を学習できることが示されている。
本研究では,グループ不変なGANのサンプル複雑性の低減を解析することにより,この改善を厳密に定量化することを目的とする。
その結果,グループ不変分布を学習する場合,グループ不変GANに必要なサンプル数はグループサイズの因子によって比例的に減少することがわかった。
重要なのは、このサンプルの複雑さの低減は、拡張データの確率的依存のため、データ拡張によってのみ達成できないことである。
数値計算により,群不変GANを用いた学習とデータ拡張による学習の相違点が明らかになった。
本研究は,群不変な生成モデル,特にGANに対する最初の統計的性能保証を示し,群対称性を持つ他の生成モデルの研究に光を当てる可能性がある。
関連論文リスト
- Equivariant score-based generative models provably learn distributions with symmetries efficiently [7.90752151686317]
実験的な研究により、対称性を生成モデルに組み込むことで、より優れた一般化とサンプリング効率が得られることが示されている。
我々は,ある群対称性に対して不変な分布を学習するためのスコアベース生成モデル(SGM)の最初の理論的解析と保証を提供する。
論文 参考訳(メタデータ) (2024-10-02T05:14:28Z) - Data-IQ: Characterizing subgroups with heterogeneous outcomes in tabular
data [81.43750358586072]
本稿では,サンプルをサブグループに体系的に階層化するフレームワークであるData-IQを提案する。
実世界の4つの医療データセットに対するData-IQの利点を実験的に実証した。
論文 参考訳(メタデータ) (2022-10-24T08:57:55Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Sparse-group boosting -- Unbiased group and variable selection [0.0]
群内空間と群間空間は混合パラメータによって制御可能であることを示す。
シミュレーション,遺伝子データおよび農業データを用いて,この推定装置の有効性と予測的競争性を示す。
論文 参考訳(メタデータ) (2022-06-13T17:44:16Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Group Equivariant Neural Architecture Search via Group Decomposition and
Reinforcement Learning [17.291131923335918]
我々は、同値ニューラルネットワークの文脈において、新しい群論的結果を証明する。
また、計算複雑性を大幅に改善する同変ネットワークを構築するアルゴリズムを設計する。
我々は、性能を最大化するグループ同変ネットワークの探索に深層Q-ラーニングを用いる。
論文 参考訳(メタデータ) (2021-04-10T19:37:25Z) - On the Fairness of Generative Adversarial Networks (GANs) [1.061960673667643]
GAN(Generative adversarial Network)は、近年のAIの最大の進歩の1つです。
本稿では,GANモデルの公平性に関する問題を分析し,強調する。
論文 参考訳(メタデータ) (2021-03-01T12:25:01Z) - GroupifyVAE: from Group-based Definition to VAE-based Unsupervised
Representation Disentanglement [91.9003001845855]
他の誘導バイアスを導入しないと、VAEベースの非監視的非絡み合いは実現できない。
グループ理論に基づく定義から導かれる制約を非確率的帰納的バイアスとして活用し,vaeに基づく教師なし不連続に対処する。
提案手法の有効性を検証するために,5つのデータセット上で,vaeベースモデルが最も目立つ1800モデルをトレーニングした。
論文 参考訳(メタデータ) (2021-02-20T09:49:51Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Robust Grouped Variable Selection Using Distributionally Robust
Optimization [11.383869751239166]
摂動下での群付き変数選択のための不確実性セットを用いた分布ロバスト最適化(DRO)の定式化を提案する。
我々は,サンプル外損失と推定バイアスの確率的境界を証明し,推定器の群化効果を確立する。
我々の定式化は,群レベルでの空間性を促進する解釈可能で同相なモデルを生成することを示す。
論文 参考訳(メタデータ) (2020-06-10T22:32:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。