論文の概要: A Statistical Analysis of Wasserstein Autoencoders for Intrinsically
Low-dimensional Data
- arxiv url: http://arxiv.org/abs/2402.15710v1
- Date: Sat, 24 Feb 2024 04:13:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 17:21:22.634547
- Title: A Statistical Analysis of Wasserstein Autoencoders for Intrinsically
Low-dimensional Data
- Title(参考訳): 固有低次元データに対するwassersteinオートエンコーダの統計的解析
- Authors: Saptarshi Chakraborty and Peter L. Bartlett
- Abstract要約: We show that Wasserstein Autoencoders (WAE) can learn the data distributions when the network architectures。
その結果,WAEの試料数における余剰リスクの収束率は,高い特徴次元に依存しないことが示唆された。
- 参考スコア(独自算出の注目度): 38.964624328622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational Autoencoders (VAEs) have gained significant popularity among
researchers as a powerful tool for understanding unknown distributions based on
limited samples. This popularity stems partly from their impressive performance
and partly from their ability to provide meaningful feature representations in
the latent space. Wasserstein Autoencoders (WAEs), a variant of VAEs, aim to
not only improve model efficiency but also interpretability. However, there has
been limited focus on analyzing their statistical guarantees. The matter is
further complicated by the fact that the data distributions to which WAEs are
applied - such as natural images - are often presumed to possess an underlying
low-dimensional structure within a high-dimensional feature space, which
current theory does not adequately account for, rendering known bounds
inefficient. To bridge the gap between the theory and practice of WAEs, in this
paper, we show that WAEs can learn the data distributions when the network
architectures are properly chosen. We show that the convergence rates of the
expected excess risk in the number of samples for WAEs are independent of the
high feature dimension, instead relying only on the intrinsic dimension of the
data distribution.
- Abstract(参考訳): 変分オートエンコーダ(VAE)は、限られたサンプルに基づいて未知の分布を理解する強力なツールとして研究者の間で大きな人気を集めている。
この人気は、その印象的なパフォーマンスと、潜在空間で有意義な特徴表現を提供する能力に起因する。
VAEの変種であるWasserstein Autoencoders (WAEs) は、モデル効率の向上だけでなく、解釈可能性の向上も目指している。
しかし、統計学的保証の分析には限定的な焦点が当てられている。
この問題は、自然画像のようなwaeが適用されるデータ分布が、現在の理論では十分に説明されていない高次元特徴空間内の基礎となる低次元構造を持つと推定されることがしばしばあり、既知の境界が非効率であるという事実によりさらに複雑である。
本稿では、WAEの理論と実践のギャップを埋めるために、WAEがネットワークアーキテクチャが適切に選択されたときにデータ分布を学習できることを示す。
本研究では,WAEのサンプル数における余剰リスクの収束率は,データ分布の本質的な次元にのみ依存せず,高い特徴次元に依存していることを示す。
関連論文リスト
- Concurrent Density Estimation with Wasserstein Autoencoders: Some
Statistical Insights [20.894503281724052]
ワッサースタインオートエンコーダ(Wasserstein Autoencoders、WAE)は、深層生成モデルの領域における先駆的な力である。
我々の研究は、WAEの背後にある機械の理論的理解を提供する試みである。
論文 参考訳(メタデータ) (2023-12-11T18:27:25Z) - ProtoVAE: Prototypical Networks for Unsupervised Disentanglement [1.6114012813668934]
本稿では,自己スーパービジョンを用いて学習した深層学習型プロトタイプネットワークを活用する,新しい深部生成型VAEモデルProtoVAEを提案する。
我々のモデルは、完全に教師なしであり、要素数を含むデータセットの事前知識を必要としない。
提案手法をベンチマークdSprites, 3DShapes, MPI3Dディジアングルメントデータセット上で評価した。
論文 参考訳(メタデータ) (2023-05-16T01:29:26Z) - RENs: Relevance Encoding Networks [0.0]
本稿では,遅延空間に先行する自動相対性決定(ARD)を用いて,データ固有のボトルネック次元を学習する新しい確率的VOEベースのフレームワークであるrelevance encoding network (RENs)を提案する。
提案モデルは,サンプルの表現や生成品質を損なうことなく,関連性のあるボトルネック次元を学習することを示す。
論文 参考訳(メタデータ) (2022-05-25T21:53:48Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Efficient Robustness Certificates for Discrete Data: Sparsity-Aware
Randomized Smoothing for Graphs, Images and More [85.52940587312256]
本稿では,初期作業を想定したランダム化平滑化フレームワークに基づくモデル非依存の証明書を提案する。
このアプローチがさまざまなモデル、データセット、タスクに対して有効であることを示します。
論文 参考訳(メタデータ) (2020-08-29T10:09:02Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z) - Distribution Approximation and Statistical Estimation Guarantees of
Generative Adversarial Networks [82.61546580149427]
GAN(Generative Adversarial Networks)は教師なし学習において大きな成功を収めている。
本稿では,H'older空間における密度データ分布推定のためのGANの近似と統計的保証を提供する。
論文 参考訳(メタデータ) (2020-02-10T16:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。