論文の概要: Towards a Theoretical Understanding of the Robustness of Variational
Autoencoders
- arxiv url: http://arxiv.org/abs/2007.07365v3
- Date: Fri, 29 Jan 2021 18:33:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 13:58:12.872407
- Title: Towards a Theoretical Understanding of the Robustness of Variational
Autoencoders
- Title(参考訳): 変分オートエンコーダのロバスト性に関する理論的理解に向けて
- Authors: Alexander Camuto, Matthew Willetts, Stephen Roberts, Chris Holmes, Tom
Rainforth
- Abstract要約: 敵攻撃や他の入力摂動に対する変分オートエンコーダ(VAE)の堅牢性を理解するために,我々は進出している。
確率モデルにおけるロバスト性のための新しい基準である$r$-robustnessを開発する。
遠心法を用いて訓練したVAEが、ロバストネスの指標でよく評価されていることを示す。
- 参考スコア(独自算出の注目度): 82.68133908421792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We make inroads into understanding the robustness of Variational Autoencoders
(VAEs) to adversarial attacks and other input perturbations. While previous
work has developed algorithmic approaches to attacking and defending VAEs,
there remains a lack of formalization for what it means for a VAE to be robust.
To address this, we develop a novel criterion for robustness in probabilistic
models: $r$-robustness. We then use this to construct the first theoretical
results for the robustness of VAEs, deriving margins in the input space for
which we can provide guarantees about the resulting reconstruction. Informally,
we are able to define a region within which any perturbation will produce a
reconstruction that is similar to the original reconstruction. To support our
analysis, we show that VAEs trained using disentangling methods not only score
well under our robustness metrics, but that the reasons for this can be
interpreted through our theoretical results.
- Abstract(参考訳): 敵攻撃や他の入力摂動に対する変分オートエンコーダ(VAE)の堅牢性を理解するために,我々は進出している。
以前の研究は、VAEを攻撃し、防御するためのアルゴリズム的なアプローチを開発してきたが、VAEが堅牢であることの意味については、まだ定式化されていない。
これに対処するために、確率モデルのロバスト性に対する新しい基準である $r$-robustness を開発します。
次に、これを用いてvaesのロバスト性の最初の理論的結果を構築し、入力空間のマージンを導出し、その結果の再構築に関する保証を提供する。
非公式に、任意の摂動が元の再構成と類似した再構築を生成する領域を定義することができる。
分析支援のため,断定法を用いて訓練したvaesは,ロバスト性指標の下でのスコアが良好であるだけでなく,その原因を理論的な結果から解釈できることを示した。
関連論文リスト
- Robust VAEs via Generating Process of Noise Augmented Data [9.366139389037489]
本稿では,原データと雑音増大データ間の潜時空間のばらつきを規則化し,ロバスト性を高める新しい枠組みを提案する。
実験により,ロバスト拡張変分オートエンコーダ(RAVEN)と呼ばれるこの手法は,対向入力に対して優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2024-07-26T09:55:34Z) - Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Variational Encoder-based Reliable Classification [5.161531917413708]
本稿では,トレーニングデータセットと再建の質を用いて,その信念の正当性を証明できる疫学(EC)を提案する。
提案手法は,意味的に意味のある低次元空間を識別できる変分オートエンコーダに基づく。
その結果, 予測の信頼性が向上し, 対向攻撃を伴う試料の堅牢な同定が可能となった。
論文 参考訳(メタデータ) (2020-02-19T17:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。