論文の概要: Adversarial robustness of VAEs through the lens of local geometry
- arxiv url: http://arxiv.org/abs/2208.03923v3
- Date: Mon, 28 Oct 2024 16:01:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:38:09.846588
- Title: Adversarial robustness of VAEs through the lens of local geometry
- Title(参考訳): 局所幾何学レンズによるVAEの対向ロバスト性
- Authors: Asif Khan, Amos Storkey,
- Abstract要約: 可変オートエンコーダ (VAEs) に対する教師なし攻撃では、敵は入力サンプルに小さな摂動を発見し、潜時空間の符号化を著しく変化させる。
本稿では, VAEを攻撃するための最適手法として, プルバック計量テンソルの方向バイアスを利用する方法を示す。
- 参考スコア(独自算出の注目度): 1.2228014485474623
- License:
- Abstract: In an unsupervised attack on variational autoencoders (VAEs), an adversary finds a small perturbation in an input sample that significantly changes its latent space encoding, thereby compromising the reconstruction for a fixed decoder. A known reason for such vulnerability is the distortions in the latent space resulting from a mismatch between approximated latent posterior and a prior distribution. Consequently, a slight change in an input sample can move its encoding to a low/zero density region in the latent space resulting in an unconstrained generation. This paper demonstrates that an optimal way for an adversary to attack VAEs is to exploit a directional bias of a stochastic pullback metric tensor induced by the encoder and decoder networks. The pullback metric tensor of an encoder measures the change in infinitesimal latent volume from an input to a latent space. Thus, it can be viewed as a lens to analyse the effect of input perturbations leading to latent space distortions. We propose robustness evaluation scores using the eigenspectrum of a pullback metric tensor. Moreover, we empirically show that the scores correlate with the robustness parameter $\beta$ of the $\beta-$VAE. Since increasing $\beta$ also degrades reconstruction quality, we demonstrate a simple alternative using \textit{mixup} training to fill the empty regions in the latent space, thus improving robustness with improved reconstruction.
- Abstract(参考訳): 可変オートエンコーダ(VAEs)に対する教師なし攻撃において、敵は、潜伏空間の符号化を著しく変化させる入力サンプルに小さな摂動を発見し、固定デコーダの再構成を妥協する。
このような脆弱性の既知の理由は、近似された潜伏後部とそれ以前の分布とのミスマッチに起因する潜伏空間の歪みである。
これにより、入力サンプルのわずかな変化は、符号化を遅延空間内の低/ゼロ密度領域に移動させ、制約のない生成をもたらす。
本稿では, エンコーダとデコーダネットワークによって引き起こされる確率的プルバック計量テンソルの方向バイアスを利用するために, 敵がVAEを攻撃する最適な方法を示す。
エンコーダの引き戻し計量テンソルは、入力から潜在空間への無限小潜在体積の変化を測定する。
したがって、入力摂動の影響を解析し、遅延空間の歪みを引き起こすレンズと見なすことができる。
引き戻し計量テンソルの固有スペクトルを用いたロバストネス評価スコアを提案する。
さらに、このスコアは、$\beta-$VAEのロバスト性パラメータ$\beta$と相関していることを示す。
$\beta$の増大は再構築の質を低下させるので、隠れた空間の空き領域を埋めるために \textit{mixup} トレーニングを使用する単純な代替手段を実証し、再構築を改善することで堅牢性を向上させる。
関連論文リスト
- Unscented Autoencoder [3.0108936184913295]
変分オートエンコーダ(VAE)は、潜伏変数を用いた深部生成モデリングにおける基礎的なアプローチである。
フィルタの分野からUnscented Kalman Filter (UKF) によく知られた分布近似である Unscented Transform (UT) を適用する。
我々は,VAE(Unscented Autoencoder, UAE)の新規な決定論的サンプリングフレーバーを,サンプル毎の後部における正規化のような用語で純粋に訓練した。
論文 参考訳(メタデータ) (2023-06-08T14:53:02Z) - Variational Diffusion Auto-encoder: Latent Space Extraction from
Pre-trained Diffusion Models [0.0]
可変オートエンコーダ(VAE)は、生成された画像の品質の問題に直面し、しばしば目立った曖昧さを示す。
この問題は、条件付きデータ分布を近似する非現実的な仮定である $p(textbfx | textbfz)$ が等方ガウス的であることに由来する。
本稿では,エンコーダを最適化することにより,既存の拡散モデルから潜在空間を抽出し,限界データのログ化を最大化する方法について述べる。
論文 参考訳(メタデータ) (2023-04-24T14:44:47Z) - Defending Variational Autoencoders from Adversarial Attacks with MCMC [74.36233246536459]
変分オートエンコーダ(VAE)は、様々な領域で使用される深部生成モデルである。
以前の研究が示すように、視覚的にわずかに修正された入力に対する予期せぬ潜在表現と再構成を生成するために、VAEを簡単に騙すことができる。
本稿では, 敵攻撃構築のための目的関数について検討し, モデルのロバスト性を評価する指標を提案し, 解決策を提案する。
論文 参考訳(メタデータ) (2022-03-18T13:25:18Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - Certified Defense via Latent Space Randomized Smoothing with Orthogonal
Encoders [13.723000245697866]
ネットワークの潜在空間におけるランダムなスムース化とロバストな認証の確立の可能性について検討する。
我々は、リプシッツの性質が設計上自由であることが知られている加群を用いて、潜在空間で推定される証明された半径を入力空間に伝播する。
CIFAR10 と ImageNet を用いた実験により,テスト期間中に高い効率向上を図った。
論文 参考訳(メタデータ) (2021-08-01T16:48:43Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Neighbor Embedding Variational Autoencoder [14.08587678497785]
本稿では,入力空間に近接する入力を符号化するために,エンコーダを明示的に制約する新しいモデルであるVAE(NE-VAE)を提案する。
我々の実験では、NE-VAEは定性的に異なる潜伏表現を生成できるが、ほとんどの潜伏次元はアクティブのままである。
論文 参考訳(メタデータ) (2021-03-21T09:49:12Z) - Generating Out of Distribution Adversarial Attack using Latent Space
Poisoning [5.1314136039587925]
本稿では,実際の画像が破損しない敵の例を生成する新しいメカニズムを提案する。
潜在空間表現は、画像の固有構造を改ざんするために利用される。
勾配ベースの攻撃とは対照的に、潜時空間中毒は、トレーニングデータセットの独立かつ同一分布をモデル化する分類器の傾きを利用する。
論文 参考訳(メタデータ) (2020-12-09T13:05:44Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Towards a Theoretical Understanding of the Robustness of Variational
Autoencoders [82.68133908421792]
敵攻撃や他の入力摂動に対する変分オートエンコーダ(VAE)の堅牢性を理解するために,我々は進出している。
確率モデルにおけるロバスト性のための新しい基準である$r$-robustnessを開発する。
遠心法を用いて訓練したVAEが、ロバストネスの指標でよく評価されていることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:22:29Z) - Preventing Posterior Collapse with Levenshtein Variational Autoencoder [61.30283661804425]
我々は,エビデンス・ロー・バウンド(ELBO)を最適化し,後部崩壊を防止できる新しい目的に置き換えることを提案する。
本稿では,Levenstein VAEが後方崩壊防止のための代替手法よりも,より情報的な潜伏表現を生成することを示す。
論文 参考訳(メタデータ) (2020-04-30T13:27:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。