論文の概要: Statistical Guarantees of Group-Invariant GANs
- arxiv url: http://arxiv.org/abs/2305.13517v2
- Date: Mon, 16 Oct 2023 15:09:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 05:10:00.741088
- Title: Statistical Guarantees of Group-Invariant GANs
- Title(参考訳): 群不変GANの統計的保証
- Authors: Ziyu Chen, Markos A. Katsoulakis, Luc Rey-Bellet, Wei Zhu
- Abstract要約: GAN(Group-invariant Generative Adversarial Network)は、ジェネレータと識別器を群対称性で固定したGANの一種である。
本研究では,グループ不変なGANのサンプル複雑性の低減を解析することにより,この改善を厳密に定量化することを目的とする。
- 参考スコア(独自算出の注目度): 14.294208742993955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Group-invariant generative adversarial networks (GANs) are a type of GANs in
which the generators and discriminators are hardwired with group symmetries.
Empirical studies have shown that these networks are capable of learning
group-invariant distributions with significantly improved data efficiency. In
this study, we aim to rigorously quantify this improvement by analyzing the
reduction in sample complexity for group-invariant GANs. Our findings indicate
that when learning group-invariant distributions, the number of samples
required for group-invariant GANs decreases proportionally with a power of the
group size, and this power depends on the intrinsic dimension of the
distribution's support. To our knowledge, this work presents the first
statistical estimation for group-invariant generative models, specifically for
GANs, and it may shed light on the study of other group-invariant generative
models.
- Abstract(参考訳): GAN(Group-invariant Generative Adversarial Network)は、ジェネレータと識別器を群対称性で固定したGANの一種である。
実験的な研究により、これらのネットワークはデータ効率を著しく改善し、グループ不変の分布を学習できることが示されている。
本研究では,グループ不変なGANのサンプル複雑性の低減を解析することにより,この改善を厳密に定量化することを目的とする。
その結果,群不変分布を学習する場合,群不変GANに必要なサンプル数は群の大きさのパワーに比例して減少し,本パワーは分布の固有次元に依存することがわかった。
我々の知る限り、この研究はグループ不変生成モデル、特にGANに対する最初の統計的推定であり、他のグループ不変生成モデルの研究に光を当てるかもしれない。
関連論文リスト
- Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Sparse-group boosting -- Unbiased group and variable selection [0.0]
群内空間と群間空間は混合パラメータによって制御可能であることを示す。
シミュレーション,遺伝子データおよび農業データを用いて,この推定装置の有効性と予測的競争性を示す。
論文 参考訳(メタデータ) (2022-06-13T17:44:16Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - On the Sample Complexity of Learning with Geometric Stability [42.813141600050166]
対象関数がそのような不変性や安定性を示す学習問題のサンプル複雑性について検討する。
カーネル法における非パラメトリック収束率と,グループの大きさに等しい因子によるサンプル複雑性の改善について述べる。
論文 参考訳(メタデータ) (2021-06-14T03:51:16Z) - Group Equivariant Subsampling [60.53371517247382]
サブサンプリングは、プールやストライド畳み込みの形で畳み込みニューラルネットワーク(CNN)で使用される。
まず、正確な翻訳同変CNNを構築するために使用できる翻訳同変サブサンプリング/アップサンプリング層を導入する。
次に、これらの層を一般群への変換を超えて一般化し、したがって群同変部分サンプリング/アップサンプリングを提案する。
論文 参考訳(メタデータ) (2021-06-10T16:14:00Z) - Group Equivariant Neural Architecture Search via Group Decomposition and
Reinforcement Learning [17.291131923335918]
我々は、同値ニューラルネットワークの文脈において、新しい群論的結果を証明する。
また、計算複雑性を大幅に改善する同変ネットワークを構築するアルゴリズムを設計する。
我々は、性能を最大化するグループ同変ネットワークの探索に深層Q-ラーニングを用いる。
論文 参考訳(メタデータ) (2021-04-10T19:37:25Z) - GroupifyVAE: from Group-based Definition to VAE-based Unsupervised
Representation Disentanglement [91.9003001845855]
他の誘導バイアスを導入しないと、VAEベースの非監視的非絡み合いは実現できない。
グループ理論に基づく定義から導かれる制約を非確率的帰納的バイアスとして活用し,vaeに基づく教師なし不連続に対処する。
提案手法の有効性を検証するために,5つのデータセット上で,vaeベースモデルが最も目立つ1800モデルをトレーニングした。
論文 参考訳(メタデータ) (2021-02-20T09:49:51Z) - Inference post Selection of Group-sparse Regression Models [2.1485350418225244]
条件推論は、自動モデル選択からのデータが推論のために再利用されるとき、バイアスに対処するための厳密なアプローチを提供する。
本稿では,線形モデル内の不確実性を評価するための統計的に一貫したベイズ的枠組みを開発する。
遺伝子、タンパク質、遺伝的変異体、神経画像計測がそれぞれ生物学的経路、分子機能、調節領域、認知的役割によってグループ化された場合、これらのモデルはグループスパース学習アルゴリズムの有用なクラスによって選択される。
論文 参考訳(メタデータ) (2020-12-31T15:43:26Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。