論文の概要: Certifiably Robust Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2102.07559v1
- Date: Mon, 15 Feb 2021 13:56:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 12:04:27.841437
- Title: Certifiably Robust Variational Autoencoders
- Title(参考訳): サーティフィアブルロバスト可変オートエンコーダ
- Authors: Ben Barrett, Alexander Camuto, Matthew Willetts, Tom Rainforth
- Abstract要約: 敵攻撃に対して確実に堅牢な変分自動エンコーダ(VAE)を訓練するためのアプローチを提案する。
VAEの再構築を変更するために必要な入力摂動の最小サイズの行動可能な境界を導出する。
これらのパラメータをどのように制御できるかを示すことにより、VAEが望ましいレベルの堅牢性を達成するためのメカニズムを提供します。
- 参考スコア(独自算出の注目度): 74.28099923969754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce an approach for training Variational Autoencoders (VAEs) that
are certifiably robust to adversarial attack. Specifically, we first derive
actionable bounds on the minimal size of an input perturbation required to
change a VAE's reconstruction by more than an allowed amount, with these bounds
depending on certain key parameters such as the Lipschitz constants of the
encoder and decoder. We then show how these parameters can be controlled,
thereby providing a mechanism to ensure a priori that a VAE will attain a
desired level of robustness. Moreover, we extend this to a complete practical
approach for training such VAEs to ensure our criteria are met. Critically, our
method allows one to specify a desired level of robustness upfront and then
train a VAE that is guaranteed to achieve this robustness. We further
demonstrate that these Lipschitz--constrained VAEs are more robust to attack
than standard VAEs in practice.
- Abstract(参考訳): 敵攻撃に対して確実に堅牢な変分自動エンコーダ(VAE)を訓練するためのアプローチを提案する。
具体的には、まず、入力摂動の最小サイズについて、エンコーダとデコーダのリプシッツ定数のような特定の鍵パラメータに依存する条件で、VAEの再構成を許容量以上変更するために必要な動作可能な境界を導出する。
次に,これらのパラメータの制御方法を示し,vaeが所望のロバスト性を達成することを保証するメカニズムを提供する。
さらに,VAEを訓練するための完全な実践的アプローチに拡張して,基準を満たすようにした。
批判的なことに,本手法では,事前に所望のロバスト性レベルを指定し,このロバスト性を達成するために保証されたVAEをトレーニングすることができる。
さらに,これらのリプシッツ拘束型vaesは,従来のvaesよりも攻撃に頑健であることを示す。
関連論文リスト
- Closing the gap: Exact maximum likelihood training of generative
autoencoders using invertible layers [7.76925617801895]
VAE方式のオートエンコーダは非可逆層を用いて構築可能であることを示す。
これは、エンコーダ、デコーダ、および以前のアーキテクチャの選択において完全な自由を残しながら達成される。
この手法は,ログライクリフ,サンプル品質,デノーミング性能の観点から,アーキテクチャ的に等価なVAEよりも著しく高い性能を示す。
論文 参考訳(メタデータ) (2022-05-19T13:16:09Z) - Defending Variational Autoencoders from Adversarial Attacks with MCMC [74.36233246536459]
変分オートエンコーダ(VAE)は、様々な領域で使用される深部生成モデルである。
以前の研究が示すように、視覚的にわずかに修正された入力に対する予期せぬ潜在表現と再構成を生成するために、VAEを簡単に騙すことができる。
本稿では, 敵攻撃構築のための目的関数について検討し, モデルのロバスト性を評価する指標を提案し, 解決策を提案する。
論文 参考訳(メタデータ) (2022-03-18T13:25:18Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Diagnosing Vulnerability of Variational Auto-Encoders to Adversarial
Attacks [80.73580820014242]
所定の潜入コード(監視攻撃)を取得するためにデータポイントを変更するか、または劇的に異なるコード(監視されていない攻撃)を取得する方法を示します。
モデル修正がvaesのロバスト性に及ぼす影響を調べ,定量化のための指標を提案する。
論文 参考訳(メタデータ) (2021-03-10T14:23:20Z) - Consistent Non-Parametric Methods for Adaptive Robustness [26.016647703500887]
標準のロバストな学習フレームワークの大きな欠点は、すべての入力に適用される人工的なロバスト性半径$r$の固定です。
本稿では, 適応ロバスト性のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-18T00:44:07Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Towards a Theoretical Understanding of the Robustness of Variational
Autoencoders [82.68133908421792]
敵攻撃や他の入力摂動に対する変分オートエンコーダ(VAE)の堅牢性を理解するために,我々は進出している。
確率モデルにおけるロバスト性のための新しい基準である$r$-robustnessを開発する。
遠心法を用いて訓練したVAEが、ロバストネスの指標でよく評価されていることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:22:29Z) - Double Backpropagation for Training Autoencoders against Adversarial
Attack [15.264115499966413]
本稿では,オートエンコーダに対する敵攻撃に着目した。
本稿では,VAE や DRAW などのオートエンコーダを確保するために,二重バックプロパゲーション (DBP) を採用することを提案する。
論文 参考訳(メタデータ) (2020-03-04T05:12:27Z) - Safe Wasserstein Constrained Deep Q-Learning [2.088376060651494]
本稿では,Wasserstein ambiguity セットを利用した分散ロバストなQ-Learningアルゴリズム (DrQ) を提案する。
リチウムイオン電池の高速充電のケーススタディを用いて、理想主義的安全性保証が安全性を全般的に向上させる方法について検討する。
論文 参考訳(メタデータ) (2020-02-07T21:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。