論文の概要: SATBA: An Invisible Backdoor Attack Based On Spatial Attention
- arxiv url: http://arxiv.org/abs/2302.13056v1
- Date: Sat, 25 Feb 2023 10:57:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 19:17:09.363963
- Title: SATBA: An Invisible Backdoor Attack Based On Spatial Attention
- Title(参考訳): SATBA:空間的注意に基づく見えないバックドア攻撃
- Authors: Huasong Zhou, Zhenyu Wang and Xiaowei Xu
- Abstract要約: SATBAと呼ばれる新しいバックドアアタックを導入し、攻撃成功率とモデル精度を向上させるトリガーの損失を最小限に抑える。
データの特徴を抽出し、空間的注意を通してクリーンデータに関連するトリガーパターンを生成し、U型モデルを使用してトリガーを元のデータに配置することでクリーン画像に毒を与える。
- 参考スコア(独自算出の注目度): 8.295787941155112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a new realm of AI security, backdoor attack has drew growing attention
research in recent years. It is well known that backdoor can be injected in a
DNN model through the process of model training with poisoned dataset which is
consist of poisoned sample. The injected model output correct prediction on
benign samples yet behave abnormally on poisoned samples included trigger
pattern. Most existing trigger of poisoned sample are visible and can be easily
found by human visual inspection, and the trigger injection process will cause
the feature loss of natural sample and trigger. To solve the above problems and
inspire by spatial attention mechanism, we introduce a novel backdoor attack
named SATBA, which is invisible and can minimize the loss of trigger to improve
attack success rate and model accuracy. It extracts data features and generate
trigger pattern related to clean data through spatial attention, poisons clean
image by using a U-type models to plant a trigger into the original data. We
demonstrate the effectiveness of our attack against three popular image
classification DNNs on three standard datasets. Besides, we conduct extensive
experiments about image similarity to show that our proposed attack can provide
practical stealthiness which is critical to resist to backdoor defense.
- Abstract(参考訳): AIセキュリティの新しい領域として、バックドア攻撃は近年注目を集めている。
毒付きサンプルからなる毒付きデータセットによるモデルトレーニングのプロセスを通じて、バックドアをdnnモデルに注入できることはよく知られている。
入射モデルによる良性試料の正当性予測は, トリガーパターンを含む有毒試料に対して異常に振る舞う。
既存の有毒サンプルのトリガーのほとんどは可視性であり、人間の視覚検査によって容易に発見でき、トリガー注入プロセスは天然サンプルとトリガーの特徴喪失を引き起こす。
そこで本稿では,satbaと呼ばれる新しいバックドアアタックを提案する。この攻撃は目に見えず,トリガーの損失を最小限に抑え,攻撃成功率とモデルの精度を向上させる。
空間的注意を通してデータの特徴を抽出し、クリーンデータに関連するトリガーパターンを生成し、u型モデルを用いて元のデータにトリガーを植え込む。
3つの標準データセット上での3つの画像分類DNNに対する攻撃の有効性を示す。
また,画像類似性に関する広範囲な実験を行い,提案する攻撃がバックドア防御に不可欠な実用的なステルス性をもたらすことを示した。
関連論文リスト
- An Invisible Backdoor Attack Based On Semantic Feature [0.0]
過去数年間、バックドア攻撃はディープニューラルネットワーク(DNN)モデルに深刻な脅威を与えてきた。
我々は、新しいバックドア攻撃を提案し、不可避な変更を行う。
我々は3つの画像分類データセットに対する攻撃を評価した。
論文 参考訳(メタデータ) (2024-05-19T13:50:40Z) - Backdoor Attack against One-Class Sequential Anomaly Detection Models [10.020488631167204]
そこで我々は,新たなバックドア攻撃戦略を提案することによって,深部連続異常検出モデルを提案する。
攻撃アプローチは2つの主要なステップ、トリガー生成とバックドアインジェクションから構成される。
2つの確立された1クラスの異常検出モデルにバックドアを注入することにより,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-15T19:19:54Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。