論文の概要: BAAAN: Backdoor Attacks Against Autoencoder and GAN-Based Machine
Learning Models
- arxiv url: http://arxiv.org/abs/2010.03007v2
- Date: Thu, 8 Oct 2020 07:28:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:12:02.598632
- Title: BAAAN: Backdoor Attacks Against Autoencoder and GAN-Based Machine
Learning Models
- Title(参考訳): BAAAN: 自動エンコーダとGANベースの機械学習モデルに対するバックドア攻撃
- Authors: Ahmed Salem, Yannick Sautter, Michael Backes, Mathias Humbert, Yang
Zhang
- Abstract要約: 我々は、マシンラーニングモデル、すなわちバックドア攻撃に対する最も深刻な攻撃の1つを、オートエンコーダとGANの両方に対して探索する。
バックドアアタック(英語: backdoor attack)とは、敵が秘密のトリガーによってのみ起動できるターゲットモデルに隠れたバックドアを実装する訓練時間アタックである。
バックドア攻撃の適用性をオートエンコーダやGANベースのモデルに拡張する。
- 参考スコア(独自算出の注目度): 21.06679566096713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The tremendous progress of autoencoders and generative adversarial networks
(GANs) has led to their application to multiple critical tasks, such as fraud
detection and sanitized data generation. This increasing adoption has fostered
the study of security and privacy risks stemming from these models. However,
previous works have mainly focused on membership inference attacks. In this
work, we explore one of the most severe attacks against machine learning
models, namely the backdoor attack, against both autoencoders and GANs. The
backdoor attack is a training time attack where the adversary implements a
hidden backdoor in the target model that can only be activated by a secret
trigger. State-of-the-art backdoor attacks focus on classification-based tasks.
We extend the applicability of backdoor attacks to autoencoders and GAN-based
models. More concretely, we propose the first backdoor attack against
autoencoders and GANs where the adversary can control what the decoded or
generated images are when the backdoor is activated. Our results show that the
adversary can build a backdoored autoencoder that returns a target output for
all backdoored inputs, while behaving perfectly normal on clean inputs.
Similarly, for the GANs, our experiments show that the adversary can generate
data from a different distribution when the backdoor is activated, while
maintaining the same utility when the backdoor is not.
- Abstract(参考訳): オートエンコーダとgans(generative adversarial network)の飛躍的な進歩により、不正検出や衛生データ生成など、複数の重要なタスクに応用された。
この採用の増加は、これらのモデルから生じるセキュリティとプライバシのリスクの研究を後押ししている。
しかし、以前の研究は主にメンバーシップ推論攻撃に焦点を当てている。
本研究では,機械学習モデルに対する最も深刻な攻撃,すなわちバックドア攻撃について,オートエンコーダとGANの両方に対して検討する。
バックドアアタック(backdoor attack)は、敵がターゲットモデルに隠されたバックドアを実装し、秘密のトリガーでのみ起動するトレーニングタイムアタックである。
最先端のバックドア攻撃は分類に基づくタスクに焦点を当てている。
バックドア攻撃の適用性をオートエンコーダやGANベースのモデルに拡張する。
より具体的には、敵がバックドアを起動したときにデコードされた画像や生成された画像が何であるかを制御できるオートエンコーダやganに対する最初のバックドア攻撃を提案する。
その結果、敵はすべてのバックドア入力に対してターゲット出力を返すバックドアオートエンコーダを構築でき、クリーン入力では完全に正常に動作できることがわかった。
同様に,本実験では,バックドアがアクティベートされた場合と,バックドアがアクティベートされた場合と,バックドアが有効でない場合とで,異なる分布からデータを生成することができることを示した。
関連論文リスト
- Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Universal Soldier: Using Universal Adversarial Perturbations for
Detecting Backdoor Attacks [15.917794562400449]
ディープラーニングモデルは、バックドアデータによるトレーニングや、内部ネットワークパラメータの変更によって悪用される。
引き金について事前に知ることなく、クリーンモデルとバックドアモデルとを区別することは困難である。
UAPによるバックドア検出(USB)とリバースエンジニアリング潜在的なバックドアトリガのためのUniversal Soldierという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-01T20:47:58Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。