論文の概要: On the Adversarial Robustness of Generative Autoencoders in the Latent
Space
- arxiv url: http://arxiv.org/abs/2307.02202v1
- Date: Wed, 5 Jul 2023 10:53:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 14:03:41.547411
- Title: On the Adversarial Robustness of Generative Autoencoders in the Latent
Space
- Title(参考訳): 潜在空間における生成自己エンコーダの対向ロバスト性について
- Authors: Mingfei Lu and Badong Chen
- Abstract要約: 本稿では,潜在空間における生成自己エンコーダの対角強靭性に関する最初の研究について述べる。
具体的には、潜伏空間における攻撃を通じて、一般的な生成オートエンコーダの潜伏する脆弱性を実証的に示す。
敵の強靭性と潜伏符号の絡み合いの程度との潜在的なトレードオフを同定する。
- 参考スコア(独自算出の注目度): 22.99128324197949
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The generative autoencoders, such as the variational autoencoders or the
adversarial autoencoders, have achieved great success in lots of real-world
applications, including image generation, and signal communication.
However, little concern has been devoted to their robustness during practical
deployment.
Due to the probabilistic latent structure, variational autoencoders (VAEs)
may confront problems such as a mismatch between the posterior distribution of
the latent and real data manifold, or discontinuity in the posterior
distribution of the latent.
This leaves a back door for malicious attackers to collapse VAEs from the
latent space, especially in scenarios where the encoder and decoder are used
separately, such as communication and compressed sensing.
In this work, we provide the first study on the adversarial robustness of
generative autoencoders in the latent space.
Specifically, we empirically demonstrate the latent vulnerability of popular
generative autoencoders through attacks in the latent space.
We also evaluate the difference between variational autoencoders and their
deterministic variants and observe that the latter performs better in latent
robustness.
Meanwhile, we identify a potential trade-off between the adversarial
robustness and the degree of the disentanglement of the latent codes.
Additionally, we also verify the feasibility of improvement for the latent
robustness of VAEs through adversarial training.
In summary, we suggest concerning the adversarial latent robustness of the
generative autoencoders, analyze several robustness-relative issues, and give
some insights into a series of key challenges.
- Abstract(参考訳): 可変オートエンコーダや対向オートエンコーダのような生成型オートエンコーダは、画像生成や信号通信を含む多くの実世界のアプリケーションで大きな成功を収めている。
しかし、実際の展開における堅牢性にはほとんど関心が払われていない。
確率的潜在性構造のため、変分オートエンコーダ(vaes)は、潜在性多様体と実データ多様体の後方分布の不一致や、潜在性の後方分布の不連続などの問題に直面する可能性がある。
これにより、特に通信や圧縮センシングなど、エンコーダとデコーダが別々に使用されるシナリオにおいて、悪意のある攻撃者が潜在空間からvaesを崩壊させるバックドアが残される。
本研究では、潜在空間における生成自己エンコーダの対角的堅牢性に関する最初の研究を行う。
具体的には、潜伏空間における攻撃による一般的な生成オートエンコーダの潜伏脆弱性を実証的に示す。
また,変分オートエンコーダと決定論的変種との差異を評価し,後者が潜在的ロバスト性において優れた性能を示すことを確かめた。
一方,本手法では,逆のロバスト性と潜在コードの絡み合いの程度との間に生じる潜在的なトレードオフを明らかにする。
また, 対人訓練によるVOEの潜在的堅牢性向上の可能性についても検証した。
まとめると、生成する自己エンコーダの対向的潜在ロバスト性について、いくつかのロバスト性関連問題を解析し、いくつかの重要な課題について考察する。
関連論文リスト
- Concurrent Density Estimation with Wasserstein Autoencoders: Some
Statistical Insights [20.894503281724052]
ワッサースタインオートエンコーダ(Wasserstein Autoencoders、WAE)は、深層生成モデルの領域における先駆的な力である。
我々の研究は、WAEの背後にある機械の理論的理解を提供する試みである。
論文 参考訳(メタデータ) (2023-12-11T18:27:25Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Language-Driven Anchors for Zero-Shot Adversarial Robustness [25.160195547250655]
本稿では,言語駆動型アンカー型対外訓練戦略を提案する。
テキストエンコーダのセマンティック一貫性を活用することで、LAATは画像モデルの対角的堅牢性を高めることを目指している。
LAATは、最先端手法よりもゼロショット対逆ロバスト性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-01-30T17:34:43Z) - Benign Autoencoders [0.0]
我々は最適なエンコーダとデコーダのペアを見つける問題を定式化し、その解を「良性オートエンコーダ」(BAE)と呼ぶ。
我々は、BAEが生成問題の最適圧縮性次元である多様体にデータを投影することを証明した。
実例として,分散シフト下での識別器の性能を向上させるために,BAEが最適で低次元の潜在表現を見出す方法を示す。
論文 参考訳(メタデータ) (2022-10-02T21:36:27Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Anomaly Detection Based on Selection and Weighting in Latent Space [73.01328671569759]
SWADと呼ばれる新しい選択および重み付けに基づく異常検出フレームワークを提案する。
ベンチマークと実世界のデータセットによる実験は、SWADの有効性と優位性を示している。
論文 参考訳(メタデータ) (2021-03-08T10:56:38Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Towards a Theoretical Understanding of the Robustness of Variational
Autoencoders [82.68133908421792]
敵攻撃や他の入力摂動に対する変分オートエンコーダ(VAE)の堅牢性を理解するために,我々は進出している。
確率モデルにおけるロバスト性のための新しい基準である$r$-robustnessを開発する。
遠心法を用いて訓練したVAEが、ロバストネスの指標でよく評価されていることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:22:29Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Revisiting Role of Autoencoders in Adversarial Settings [32.22707594954084]
本稿では,自己エンコーダの対向ロバスト性の性質について述べる。
我々は,自己エンコーダの対角強靭性の発見は,今後の敵防衛研究や応用の手がかりとなると信じている。
論文 参考訳(メタデータ) (2020-05-21T16:01:23Z) - Double Backpropagation for Training Autoencoders against Adversarial
Attack [15.264115499966413]
本稿では,オートエンコーダに対する敵攻撃に着目した。
本稿では,VAE や DRAW などのオートエンコーダを確保するために,二重バックプロパゲーション (DBP) を採用することを提案する。
論文 参考訳(メタデータ) (2020-03-04T05:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。