論文の概要: Double Backpropagation for Training Autoencoders against Adversarial
Attack
- arxiv url: http://arxiv.org/abs/2003.01895v1
- Date: Wed, 4 Mar 2020 05:12:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 12:31:56.982192
- Title: Double Backpropagation for Training Autoencoders against Adversarial
Attack
- Title(参考訳): 対向攻撃に対するオートエンコーダ訓練のためのダブルバックプロパゲーション
- Authors: Chengjin Sun, Sizhe Chen, and Xiaolin Huang
- Abstract要約: 本稿では,オートエンコーダに対する敵攻撃に着目した。
本稿では,VAE や DRAW などのオートエンコーダを確保するために,二重バックプロパゲーション (DBP) を採用することを提案する。
- 参考スコア(独自算出の注目度): 15.264115499966413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning, as widely known, is vulnerable to adversarial samples. This
paper focuses on the adversarial attack on autoencoders. Safety of the
autoencoders (AEs) is important because they are widely used as a compression
scheme for data storage and transmission, however, the current autoencoders are
easily attacked, i.e., one can slightly modify an input but has totally
different codes. The vulnerability is rooted the sensitivity of the
autoencoders and to enhance the robustness, we propose to adopt double
backpropagation (DBP) to secure autoencoder such as VAE and DRAW. We restrict
the gradient from the reconstruction image to the original one so that the
autoencoder is not sensitive to trivial perturbation produced by the
adversarial attack. After smoothing the gradient by DBP, we further smooth the
label by Gaussian Mixture Model (GMM), aiming for accurate and robust
classification. We demonstrate in MNIST, CelebA, SVHN that our method leads to
a robust autoencoder resistant to attack and a robust classifier able for image
transition and immune to adversarial attack if combined with GMM.
- Abstract(参考訳): ディープラーニングは、広く知られているように、敵のサンプルに弱い。
本稿では,オートエンコーダに対する敵意攻撃に着目した。
オートエンコーダ(aes)の安全性は、データストレージと送信のための圧縮スキームとして広く使われているため重要であるが、現在のオートエンコーダは、入力をわずかに変更できるが、全く異なるコードを持つため、容易に攻撃される。
この脆弱性は、オートエンコーダの感度を根ざし、ロバスト性を高めるために、VAEやDRAWなどのオートエンコーダを保護するために二重バックプロパゲーション(DBP)を採用することを提案する。
我々は、自己エンコーダが敵攻撃による自明な摂動に敏感でないように、再構成画像から元のものへの勾配を制限する。
dbpによる勾配の平滑化により,ガウス混合モデル (gmm) によるラベルをさらに平滑化し, 高精度かつロバストな分類を目指す。
我々はMNIST, CelebA, SVHNにおいて, 攻撃に抵抗する堅牢なオートエンコーダと, GMMと組み合わせれば画像遷移と対向攻撃への免疫が可能な頑健な分類器を導くことを実証した。
関連論文リスト
- DeDe: Detecting Backdoor Samples for SSL Encoders via Decoders [6.698677477097004]
自己教師付き学習(SSL)は、大量のラベルのないデータで高品質な上流エンコーダのトレーニングに広く利用されている。
バックドア攻撃は トレーニングデータの ごく一部を汚染するだけ
本稿では,被害者エンコーダの共起によるバックドアマッピングの活性化を検知し,入力をトリガーする新しい検出機構であるDeDeを提案する。
論文 参考訳(メタデータ) (2024-11-25T07:26:22Z) - Downstream-agnostic Adversarial Examples [66.8606539786026]
AdvEncoderは、事前訓練されたエンコーダに基づいて、ダウンストリームに依存しない普遍的敵の例を生成するための最初のフレームワークである。
従来の逆数例とは異なり、事前訓練されたエンコーダは分類ラベルではなく特徴ベクトルを出力するのみである。
その結果、攻撃者はトレーニング済みのデータセットやダウンストリームのデータセットを知らずに、ダウンストリームのタスクを攻撃できることがわかった。
論文 参考訳(メタデータ) (2023-07-23T10:16:47Z) - On the Adversarial Robustness of Generative Autoencoders in the Latent
Space [22.99128324197949]
本稿では,潜在空間における生成自己エンコーダの対角強靭性に関する最初の研究について述べる。
具体的には、潜伏空間における攻撃を通じて、一般的な生成オートエンコーダの潜伏する脆弱性を実証的に示す。
敵の強靭性と潜伏符号の絡み合いの程度との潜在的なトレードオフを同定する。
論文 参考訳(メタデータ) (2023-07-05T10:53:49Z) - Is Semantic Communications Secure? A Tale of Multi-Domain Adversarial
Attacks [70.51799606279883]
セマンティック・コミュニケーションのためのディープ・ニューラル・ネットワーク(DNN)に対するテスト・タイム・アタックを導入する。
再建損失が低い場合でも,伝達情報のセマンティクスを変更可能であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:13:22Z) - PoisonedEncoder: Poisoning the Unlabeled Pre-training Data in
Contrastive Learning [69.70602220716718]
コントラスト学習のためのデータ中毒攻撃であるPoisonedEncoderを提案する。
特に、攻撃者は未ラベルの事前訓練データに慎重に毒を盛った入力を注入する。
我々は,PoisonedEncoderに対する5つの防御効果を評価し,前処理が1つ,内処理が3つ,後処理が1つであった。
論文 参考訳(メタデータ) (2022-05-13T00:15:44Z) - Defending Variational Autoencoders from Adversarial Attacks with MCMC [74.36233246536459]
変分オートエンコーダ(VAE)は、様々な領域で使用される深部生成モデルである。
以前の研究が示すように、視覚的にわずかに修正された入力に対する予期せぬ潜在表現と再構成を生成するために、VAEを簡単に騙すことができる。
本稿では, 敵攻撃構築のための目的関数について検討し, モデルのロバスト性を評価する指標を提案し, 解決策を提案する。
論文 参考訳(メタデータ) (2022-03-18T13:25:18Z) - Self-Supervised Adversarial Example Detection by Disentangled
Representation [16.98476232162835]
判別器ネットワークが支援するオートエンコーダを,正しくペア化されたクラス/セマンティクス特徴と誤ったペアのクラス/セマンティクス特徴の両方から訓練し,良性と反例を再構築する。
これは逆例の振る舞いを模倣し、オートエンコーダの不要な一般化能力を減らすことができる。
本手法は,最先端の自己監視検出手法と比較して,様々な測定結果において優れた性能を示す。
論文 参考訳(メタデータ) (2021-05-08T12:48:18Z) - Diagnosing Vulnerability of Variational Auto-Encoders to Adversarial
Attacks [80.73580820014242]
所定の潜入コード(監視攻撃)を取得するためにデータポイントを変更するか、または劇的に異なるコード(監視されていない攻撃)を取得する方法を示します。
モデル修正がvaesのロバスト性に及ぼす影響を調べ,定量化のための指標を提案する。
論文 参考訳(メタデータ) (2021-03-10T14:23:20Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Revisiting Role of Autoencoders in Adversarial Settings [32.22707594954084]
本稿では,自己エンコーダの対向ロバスト性の性質について述べる。
我々は,自己エンコーダの対角強靭性の発見は,今後の敵防衛研究や応用の手がかりとなると信じている。
論文 参考訳(メタデータ) (2020-05-21T16:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。