論文の概要: SATBA: An Invisible Backdoor Attack Based On Spatial Attention
- arxiv url: http://arxiv.org/abs/2302.13056v2
- Date: Sun, 26 Mar 2023 14:23:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 00:25:54.489970
- Title: SATBA: An Invisible Backdoor Attack Based On Spatial Attention
- Title(参考訳): SATBA:空間的注意に基づく見えないバックドア攻撃
- Authors: Huasong Zhou, Xiaowei Xu, Xiaodong Wang, and Leon Bevan Bullock
- Abstract要約: バックドア攻撃はAIセキュリティに対する新たな脅威となり、Deep Neural Networks(DNN)は、隠れトリガーパターンに追加されたデータセットに基づいてトレーニングされる。
既存のバックドア攻撃のほとんどは、2つの重大な欠点に直面している。トリガーパターンは人間の検査によって見えやすく容易に検出され、インジェクションプロセスによって天然のサンプルの特徴やトリガーパターンが失われる。
本研究では,空間的注意機構とU型モデルを用いて,これらの制約を克服するSATBAという新しいバックドアアタックを提案する。
- 参考スコア(独自算出の注目度): 10.493460592879835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attacks pose a new and emerging threat to AI security, where Deep
Neural Networks (DNNs) are trained on datasets added to hidden trigger
patterns. Although the poisoned model behaves normally on benign samples, it
produces anomalous results on samples containing the trigger pattern.
Nevertheless, most existing backdoor attacks face two significant drawbacks:
their trigger patterns are visible and easy to detect by human inspection, and
their injection process leads to the loss of natural sample features and
trigger patterns, thereby reducing the attack success rate and the model
accuracy. In this paper, we propose a novel backdoor attack named SATBA that
overcomes these limitations by using spatial attention mechanism and U-type
model. Our attack leverages spatial attention mechanism to extract data
features and generate invisible trigger patterns that are correlated with clean
data. Then it uses U-type model to plant these trigger patterns into the
original data without causing noticeable feature loss. We evaluate our attack
on three prominent image classification DNNs across three standard datasets and
demonstrate that it achieves high attack success rate and robustness against
backdoor defenses. Additionally, we also conduct extensive experiments on image
similarity to highlight the stealthiness of our attack.
- Abstract(参考訳): バックドア攻撃はAIセキュリティに対する新たな脅威となり、Deep Neural Networks(DNN)は、隠れトリガーパターンに追加されたデータセットに基づいてトレーニングされる。
中毒モデルは通常良性サンプルに作用するが、トリガーパターンを含むサンプルに異常な結果をもたらす。
しかしながら、既存のバックドア攻撃のほとんどは、2つの重大な欠点に直面している: トリガーパターンは人間の検査によって見えやすく容易に検出され、インジェクションプロセスは天然サンプルの特徴やトリガーパターンの喪失につながるため、攻撃の成功率とモデルの精度が低下する。
本稿では,空間的注意機構とU型モデルを用いて,これらの制約を克服するSATBAという新しいバックドア攻撃を提案する。
我々の攻撃は空間的注意機構を利用してデータの特徴を抽出し、クリーンデータと相関する見えないトリガーパターンを生成する。
次に、U型モデルを使用して、これらのトリガーパターンを特徴損失を引き起こすことなく、元のデータに配置する。
我々は,3つの標準データセットにわたる3つの画像分類DNNに対する攻撃を評価し,高い攻撃成功率とバックドアディフェンスに対する堅牢性を実証した。
さらに,画像類似性に関する広範な実験を行い,攻撃のステルス性を強調した。
関連論文リスト
- An Invisible Backdoor Attack Based On Semantic Feature [0.0]
過去数年間、バックドア攻撃はディープニューラルネットワーク(DNN)モデルに深刻な脅威を与えてきた。
我々は、新しいバックドア攻撃を提案し、不可避な変更を行う。
我々は3つの画像分類データセットに対する攻撃を評価した。
論文 参考訳(メタデータ) (2024-05-19T13:50:40Z) - Backdoor Attack against One-Class Sequential Anomaly Detection Models [10.020488631167204]
そこで我々は,新たなバックドア攻撃戦略を提案することによって,深部連続異常検出モデルを提案する。
攻撃アプローチは2つの主要なステップ、トリガー生成とバックドアインジェクションから構成される。
2つの確立された1クラスの異常検出モデルにバックドアを注入することにより,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-15T19:19:54Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。