論文の概要: SATBA: An Invisible Backdoor Attack Based On Spatial Attention
- arxiv url: http://arxiv.org/abs/2302.13056v3
- Date: Tue, 5 Mar 2024 05:10:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 04:00:24.569753
- Title: SATBA: An Invisible Backdoor Attack Based On Spatial Attention
- Title(参考訳): SATBA:空間的注意に基づく見えないバックドア攻撃
- Authors: Huasong Zhou, Xiaowei Xu, Xiaodong Wang, and Leon Bevan Bullock
- Abstract要約: バックドア攻撃には、隠れたトリガーパターンを含むデータセットに対するDeep Neural Network(DNN)のトレーニングが含まれる。
既存のバックドア攻撃のほとんどは、2つの重大な欠点に悩まされている。
空間的注意とU-netモデルを用いてこれらの制限を克服するSATBAという新しいバックドアアタックを提案する。
- 参考スコア(独自算出の注目度): 7.405457329942725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attack has emerged as a novel and concerning threat to AI security.
These attacks involve the training of Deep Neural Network (DNN) on datasets
that contain hidden trigger patterns. Although the poisoned model behaves
normally on benign samples, it exhibits abnormal behavior on samples containing
the trigger pattern. However, most existing backdoor attacks suffer from two
significant drawbacks: their trigger patterns are visible and easy to detect by
backdoor defense or even human inspection, and their injection process results
in the loss of natural sample features and trigger patterns, thereby reducing
the attack success rate and model accuracy. In this paper, we propose a novel
backdoor attack named SATBA that overcomes these limitations using spatial
attention and an U-net based model. The attack process begins by using spatial
attention to extract meaningful data features and generate trigger patterns
associated with clean images. Then, an U-shaped model is used to embed these
trigger patterns into the original data without causing noticeable feature
loss. We evaluate our attack on three prominent image classification DNN across
three standard datasets. The results demonstrate that SATBA achieves high
attack success rate while maintaining robustness against backdoor defenses.
Furthermore, we conduct extensive image similarity experiments to emphasize the
stealthiness of our attack strategy. Overall, SATBA presents a promising
approach to backdoor attack, addressing the shortcomings of previous methods
and showcasing its effectiveness in evading detection and maintaining high
attack success rate.
- Abstract(参考訳): バックドア攻撃は、AIセキュリティに対する新たな脅威として浮上している。
これらの攻撃には、隠れトリガーパターンを含むデータセットに対するDeep Neural Network(DNN)のトレーニングが含まれる。
中毒モデルは通常良性試料に作用するが、トリガーパターンを含む試料に異常な挙動を示す。
しかし、既存のバックドア攻撃のほとんどは、2つの重大な欠点に悩まされている: そのトリガーパターンは、バックドアディフェンスや人間の検査によって見えやすく容易に検出され、インジェクションプロセスによって自然なサンプルの特徴やトリガーパターンが失われ、攻撃の成功率とモデル精度が低下する。
本稿では,空間的注意とU-netモデルを用いて,これらの制約を克服するSATBAという新しいバックドアアタックを提案する。
攻撃プロセスは、空間的注意を用いて意味のあるデータの特徴を抽出し、クリーンな画像に関連するトリガーパターンを生成する。
次に、U字型モデルを使用して、これらのトリガーパターンを特徴損失を引き起こすことなく、元のデータに埋め込む。
3つの標準データセットにわたる3つの画像分類DNNに対する攻撃を評価する。
その結果,SATBAはバックドア防御に対する堅牢性を保ちながら高い攻撃成功率を達成した。
さらに,攻撃戦略のステルス性を強調するため,画像類似性実験を行った。
SATBAは,従来の手法の欠点に対処し,検出を回避し,高い攻撃成功率を維持する上での有効性を示した。
関連論文リスト
- An Invisible Backdoor Attack Based On Semantic Feature [0.0]
過去数年間、バックドア攻撃はディープニューラルネットワーク(DNN)モデルに深刻な脅威を与えてきた。
我々は、新しいバックドア攻撃を提案し、不可避な変更を行う。
我々は3つの画像分類データセットに対する攻撃を評価した。
論文 参考訳(メタデータ) (2024-05-19T13:50:40Z) - Backdoor Attack against One-Class Sequential Anomaly Detection Models [10.020488631167204]
そこで我々は,新たなバックドア攻撃戦略を提案することによって,深部連続異常検出モデルを提案する。
攻撃アプローチは2つの主要なステップ、トリガー生成とバックドアインジェクションから構成される。
2つの確立された1クラスの異常検出モデルにバックドアを注入することにより,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-15T19:19:54Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。