論文の概要: Statistical Guarantees of Group-Invariant GANs
- arxiv url: http://arxiv.org/abs/2305.13517v4
- Date: Tue, 11 Mar 2025 03:11:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:40:42.302071
- Title: Statistical Guarantees of Group-Invariant GANs
- Title(参考訳): 群不変GANの統計的保証
- Authors: Ziyu Chen, Markos A. Katsoulakis, Luc Rey-Bellet, Wei Zhu,
- Abstract要約: 本稿では,GAN(Generative Adversarial Network)について検討し,モデルに対称性を組み込んだ場合の利得を定量化する。
群不変 GAN は、ジェネレータと判別器が群対称性で固定された GAN の一種である。
この研究は、スコアベースの生成モデルのようなグループ対称性を持つ他の生成モデルの研究にも光を当てている。
- 参考スコア(独自算出の注目度): 13.084804346845816
- License:
- Abstract: This work presents the first statistical performance guarantees for group-invariant generative models. Many real data, such as images and molecules, are invariant to certain group symmetries, which can be taken advantage of to learn more efficiently as we rigorously demonstrate in this work. Here we specifically study generative adversarial networks (GANs), and quantify the gains when incorporating symmetries into the model. Group-invariant GANs are a type of GANs in which the generators and discriminators are hardwired with group symmetries. Empirical studies have shown that these networks are capable of learning group-invariant distributions with significantly improved data efficiency. In this study, we aim to rigorously quantify this improvement by analyzing the reduction in sample complexity and in the discriminator approximation error for group-invariant GANs. Our findings indicate that when learning group-invariant distributions, the number of samples required for group-invariant GANs decreases proportionally by a factor of the group size and the discriminator approximation error has a reduced lower bound. Importantly, the overall error reduction cannot be achieved merely through data augmentation on the training data. Numerical results substantiate our theory and highlight the stark contrast between learning with group-invariant GANs and using data augmentation. This work also sheds light on the study of other generative models with group symmetries, such as score-based generative models.
- Abstract(参考訳): この研究は、群不変な生成モデルに対する最初の統計的性能保証を示す。
画像や分子などの多くの実データは特定の群対称性に不変であり、この研究で厳密に示すように、より効率的に学習することができる。
本稿では、GAN(Generative Adversarial Network)について検討し、モデルに対称性を組み込んだ場合の利得を定量化する。
群不変 GAN は、ジェネレータと判別器が群対称性で固定された GAN の一種である。
実験的な研究により、これらのネットワークはデータ効率を著しく改善し、グループ不変の分布を学習できることが示されている。
本研究では,群不変GANに対する標本複雑性の低減と判別器近似誤差を解析することにより,この改善を厳密に定量化することを目的とする。
その結果,グループ不変分布を学習する場合,グループ不変GANに必要なサンプル数は群の大きさの因子によって比例的に減少し,判別器近似誤差が低下することが示唆された。
重要なことに、全体的なエラー削減は、トレーニングデータに対するデータ拡張によってのみ達成できない。
数値計算により,群不変GANを用いた学習とデータ拡張による学習の相違点が明らかになった。
この研究は、スコアベースの生成モデルのようなグループ対称性を持つ他の生成モデルの研究にも光を当てている。
関連論文リスト
- Equivariant score-based generative models provably learn distributions with symmetries efficiently [7.90752151686317]
実験的な研究により、対称性を生成モデルに組み込むことで、より優れた一般化とサンプリング効率が得られることが示されている。
我々は,ある群対称性に対して不変な分布を学習するためのスコアベース生成モデル(SGM)の最初の理論的解析と保証を提供する。
論文 参考訳(メタデータ) (2024-10-02T05:14:28Z) - Data-IQ: Characterizing subgroups with heterogeneous outcomes in tabular
data [81.43750358586072]
本稿では,サンプルをサブグループに体系的に階層化するフレームワークであるData-IQを提案する。
実世界の4つの医療データセットに対するData-IQの利点を実験的に実証した。
論文 参考訳(メタデータ) (2022-10-24T08:57:55Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Sparse-group boosting -- Unbiased group and variable selection [0.0]
群内空間と群間空間は混合パラメータによって制御可能であることを示す。
シミュレーション,遺伝子データおよび農業データを用いて,この推定装置の有効性と予測的競争性を示す。
論文 参考訳(メタデータ) (2022-06-13T17:44:16Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Group Equivariant Neural Architecture Search via Group Decomposition and
Reinforcement Learning [17.291131923335918]
我々は、同値ニューラルネットワークの文脈において、新しい群論的結果を証明する。
また、計算複雑性を大幅に改善する同変ネットワークを構築するアルゴリズムを設計する。
我々は、性能を最大化するグループ同変ネットワークの探索に深層Q-ラーニングを用いる。
論文 参考訳(メタデータ) (2021-04-10T19:37:25Z) - On the Fairness of Generative Adversarial Networks (GANs) [1.061960673667643]
GAN(Generative adversarial Network)は、近年のAIの最大の進歩の1つです。
本稿では,GANモデルの公平性に関する問題を分析し,強調する。
論文 参考訳(メタデータ) (2021-03-01T12:25:01Z) - GroupifyVAE: from Group-based Definition to VAE-based Unsupervised
Representation Disentanglement [91.9003001845855]
他の誘導バイアスを導入しないと、VAEベースの非監視的非絡み合いは実現できない。
グループ理論に基づく定義から導かれる制約を非確率的帰納的バイアスとして活用し,vaeに基づく教師なし不連続に対処する。
提案手法の有効性を検証するために,5つのデータセット上で,vaeベースモデルが最も目立つ1800モデルをトレーニングした。
論文 参考訳(メタデータ) (2021-02-20T09:49:51Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Robust Grouped Variable Selection Using Distributionally Robust
Optimization [11.383869751239166]
摂動下での群付き変数選択のための不確実性セットを用いた分布ロバスト最適化(DRO)の定式化を提案する。
我々は,サンプル外損失と推定バイアスの確率的境界を証明し,推定器の群化効果を確立する。
我々の定式化は,群レベルでの空間性を促進する解釈可能で同相なモデルを生成することを示す。
論文 参考訳(メタデータ) (2020-06-10T22:32:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。