論文の概要: SATBA: An Invisible Backdoor Attack Based On Spatial Attention
- arxiv url: http://arxiv.org/abs/2302.13056v1
- Date: Sat, 25 Feb 2023 10:57:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 19:17:09.363963
- Title: SATBA: An Invisible Backdoor Attack Based On Spatial Attention
- Title(参考訳): SATBA:空間的注意に基づく見えないバックドア攻撃
- Authors: Huasong Zhou, Zhenyu Wang and Xiaowei Xu
- Abstract要約: SATBAと呼ばれる新しいバックドアアタックを導入し、攻撃成功率とモデル精度を向上させるトリガーの損失を最小限に抑える。
データの特徴を抽出し、空間的注意を通してクリーンデータに関連するトリガーパターンを生成し、U型モデルを使用してトリガーを元のデータに配置することでクリーン画像に毒を与える。
- 参考スコア(独自算出の注目度): 8.295787941155112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a new realm of AI security, backdoor attack has drew growing attention
research in recent years. It is well known that backdoor can be injected in a
DNN model through the process of model training with poisoned dataset which is
consist of poisoned sample. The injected model output correct prediction on
benign samples yet behave abnormally on poisoned samples included trigger
pattern. Most existing trigger of poisoned sample are visible and can be easily
found by human visual inspection, and the trigger injection process will cause
the feature loss of natural sample and trigger. To solve the above problems and
inspire by spatial attention mechanism, we introduce a novel backdoor attack
named SATBA, which is invisible and can minimize the loss of trigger to improve
attack success rate and model accuracy. It extracts data features and generate
trigger pattern related to clean data through spatial attention, poisons clean
image by using a U-type models to plant a trigger into the original data. We
demonstrate the effectiveness of our attack against three popular image
classification DNNs on three standard datasets. Besides, we conduct extensive
experiments about image similarity to show that our proposed attack can provide
practical stealthiness which is critical to resist to backdoor defense.
- Abstract(参考訳): AIセキュリティの新しい領域として、バックドア攻撃は近年注目を集めている。
毒付きサンプルからなる毒付きデータセットによるモデルトレーニングのプロセスを通じて、バックドアをdnnモデルに注入できることはよく知られている。
入射モデルによる良性試料の正当性予測は, トリガーパターンを含む有毒試料に対して異常に振る舞う。
既存の有毒サンプルのトリガーのほとんどは可視性であり、人間の視覚検査によって容易に発見でき、トリガー注入プロセスは天然サンプルとトリガーの特徴喪失を引き起こす。
そこで本稿では,satbaと呼ばれる新しいバックドアアタックを提案する。この攻撃は目に見えず,トリガーの損失を最小限に抑え,攻撃成功率とモデルの精度を向上させる。
空間的注意を通してデータの特徴を抽出し、クリーンデータに関連するトリガーパターンを生成し、u型モデルを用いて元のデータにトリガーを植え込む。
3つの標準データセット上での3つの画像分類DNNに対する攻撃の有効性を示す。
また,画像類似性に関する広範囲な実験を行い,提案する攻撃がバックドア防御に不可欠な実用的なステルス性をもたらすことを示した。
関連論文リスト
- Backdoor Attack against One-Class Sequential Anomaly Detection Models [10.020488631167204]
そこで我々は,新たなバックドア攻撃戦略を提案することによって,深部連続異常検出モデルを提案する。
攻撃アプローチは2つの主要なステップ、トリガー生成とバックドアインジェクションから構成される。
2つの確立された1クラスの異常検出モデルにバックドアを注入することにより,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-15T19:19:54Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Imperceptible Backdoor Attack: From Input Space to Feature
Representation [24.82632240825927]
バックドア攻撃はディープニューラルネットワーク(DNN)への脅威が急速に高まっている
本稿では,既存の攻撃手法の欠点を分析し,新たな非受容的バックドア攻撃を提案する。
我々のトリガーは、良性画像の1%以下のピクセルしか変更せず、大きさは1。
論文 参考訳(メタデータ) (2022-05-06T13:02:26Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。