論文の概要: Concurrent Density Estimation with Wasserstein Autoencoders: Some
Statistical Insights
- arxiv url: http://arxiv.org/abs/2312.06591v1
- Date: Mon, 11 Dec 2023 18:27:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 14:32:28.359309
- Title: Concurrent Density Estimation with Wasserstein Autoencoders: Some
Statistical Insights
- Title(参考訳): Wassersteinオートエンコーダを用いた並列密度推定:統計的考察
- Authors: Anish Chakrabarty, Arkaprabha Basu, Swagatam Das
- Abstract要約: ワッサースタインオートエンコーダ(Wasserstein Autoencoders、WAE)は、深層生成モデルの領域における先駆的な力である。
我々の研究は、WAEの背後にある機械の理論的理解を提供する試みである。
- 参考スコア(独自算出の注目度): 20.894503281724052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational Autoencoders (VAEs) have been a pioneering force in the realm of
deep generative models. Amongst its legions of progenies, Wasserstein
Autoencoders (WAEs) stand out in particular due to the dual offering of
heightened generative quality and a strong theoretical backbone. WAEs consist
of an encoding and a decoding network forming a bottleneck with the prime
objective of generating new samples resembling the ones it was catered to. In
the process, they aim to achieve a target latent representation of the encoded
data. Our work is an attempt to offer a theoretical understanding of the
machinery behind WAEs. From a statistical viewpoint, we pose the problem as
concurrent density estimation tasks based on neural network-induced
transformations. This allows us to establish deterministic upper bounds on the
realized errors WAEs commit. We also analyze the propagation of these
stochastic errors in the presence of adversaries. As a result, both the large
sample properties of the reconstructed distribution and the resilience of WAE
models are explored.
- Abstract(参考訳): 変分オートエンコーダ(VAE)は、深層生成モデルの領域における先駆的な力である。
ワッサースタイン・オートエンコーダー(wassstein autoencoders、waes)は、特に、高次の生成品質と強い理論的バックボーンの二重提供によって際立っている。
WAEはエンコーディングとデコードネットワークで構成されており、対象とするものに類似した新しいサンプルを生成するための主要な目的とボトルネックを形成している。
その過程で,符号化されたデータの潜在表現を目標とする。
私たちの仕事はwaesの背後にある機械を理論的に理解する試みです。
統計的観点からは、ニューラルネットワークによる変換に基づく同時密度推定タスクとして問題を考える。
これにより、WAEがコミットする実際のエラーに対して決定論的上限を確立することができます。
また,敵の存在下での確率的誤りの伝播を解析した。
その結果、再構成された分布の大きなサンプル特性とWAEモデルのレジリエンスについて検討した。
関連論文リスト
- A Statistical Analysis of Wasserstein Autoencoders for Intrinsically
Low-dimensional Data [38.964624328622]
We show that Wasserstein Autoencoders (WAE) can learn the data distributions when the network architectures。
その結果,WAEの試料数における余剰リスクの収束率は,高い特徴次元に依存しないことが示唆された。
論文 参考訳(メタデータ) (2024-02-24T04:13:40Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Do Bayesian Variational Autoencoders Know What They Don't Know? [0.6091702876917279]
OoD(Out-of-Distribution)入力を検出する問題は、ディープニューラルネットワークにとって最重要課題である。
入力の密度を推定できる深部生成モデルでさえ、信頼できない可能性があることが以前に示されている。
本稿では,マルコフ連鎖モンテカルロ,バックプロパゲーションによるベイズ勾配,およびウェイト平均ガウスの3つの推論手法について検討する。
論文 参考訳(メタデータ) (2022-12-29T11:48:01Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Defending Variational Autoencoders from Adversarial Attacks with MCMC [74.36233246536459]
変分オートエンコーダ(VAE)は、様々な領域で使用される深部生成モデルである。
以前の研究が示すように、視覚的にわずかに修正された入力に対する予期せぬ潜在表現と再構成を生成するために、VAEを簡単に騙すことができる。
本稿では, 敵攻撃構築のための目的関数について検討し, モデルのロバスト性を評価する指標を提案し, 解決策を提案する。
論文 参考訳(メタデータ) (2022-03-18T13:25:18Z) - Inferential Wasserstein Generative Adversarial Networks [9.859829604054127]
自動エンコーダとWGANを融合する原理的フレームワークである新しい推論ワッサースタインGAN(iWGAN)モデルを導入する。
iWGANはモード崩壊の症状を大幅に緩和し、収束を高速化し、各サンプルの品質チェックの測定を行うことができる。
論文 参考訳(メタデータ) (2021-09-13T00:43:21Z) - P-WAE: Generalized Patch-Wasserstein Autoencoder for Anomaly Screening [17.24628770042803]
Patch-wise Wasserstein AutoEncoder (P-WAE) アーキテクチャを提案する。
特に、ジグソーパズルの解法と結合したパッチワイド変分推論モデルを設計する。
MVTec ADデータセットを用いた総合的な実験は、我々のプロポの優れた性能を実証する。
論文 参考訳(メタデータ) (2021-08-09T05:31:45Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - Adversarial Attack on Deep Product Quantization Network for Image
Retrieval [74.85736968193879]
近年,高速画像検索においてDPQN (Deep Product Quantization Network) が注目されている。
近年の研究では、ディープニューラルネットワーク(DNN)は、小さく、悪意のある設計の摂動によって入力に弱いことが示されている。
本稿では,製品量子化に基づく検索システムに対して,製品量子化逆生成(PQ-AG)を提案する。
論文 参考訳(メタデータ) (2020-02-26T09:25:58Z) - Regularized Autoencoders via Relaxed Injective Probability Flow [35.39933775720789]
非可逆フローベース生成モデルは、抽出可能な確率計算と推論を可能にしながら、サンプルを生成するための効果的な方法である。
本稿では, モデル上の単射性要件を回避し, 単射性のみを仮定する確率フローに基づく生成モデルを提案する。
論文 参考訳(メタデータ) (2020-02-20T18:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。