論文の概要: Rethinking the Trigger of Backdoor Attack
- arxiv url: http://arxiv.org/abs/2004.04692v3
- Date: Sun, 31 Jan 2021 17:25:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 02:35:49.115865
- Title: Rethinking the Trigger of Backdoor Attack
- Title(参考訳): バックドア攻撃のトリガーを再考する
- Authors: Yiming Li, Tongqing Zhai, Baoyuan Wu, Yong Jiang, Zhifeng Li, Shutao
Xia
- Abstract要約: 現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
- 参考スコア(独自算出の注目度): 83.98031510668619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attack intends to inject hidden backdoor into the deep neural
networks (DNNs), such that the prediction of the infected model will be
maliciously changed if the hidden backdoor is activated by the attacker-defined
trigger, while it performs well on benign samples. Currently, most of existing
backdoor attacks adopted the setting of \emph{static} trigger, $i.e.,$ triggers
across the training and testing images follow the same appearance and are
located in the same area. In this paper, we revisit this attack paradigm by
analyzing the characteristics of the static trigger. We demonstrate that such
an attack paradigm is vulnerable when the trigger in testing images is not
consistent with the one used for training. We further explore how to utilize
this property for backdoor defense, and discuss how to alleviate such
vulnerability of existing attacks.
- Abstract(参考訳): バックドア攻撃は、ディープニューラルネットワーク(DNN)に隠れたバックドアを注入することを目的としており、攻撃者が定義したトリガーによって隠れたバックドアがアクティベートされた場合、感染したモデルの予測が悪意的に変更される。
現在、既存のバックドアアタックのほとんどは、トレーニングとテスト用のイメージが同じ外観で同じエリアに置かれているという、emph{static} トリガの設定を採用しています。
本稿では,静的トリガの特性を解析することにより,この攻撃パラダイムを再考する。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
我々はさらに,この特性をバックドア防御に利用する方法について検討し,既存の攻撃の脆弱性を軽減する方法について論じる。
関連論文リスト
- Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Adversarial Fine-tuning for Backdoor Defense: Connect Adversarial
Examples to Triggered Samples [15.57457705138278]
本稿では,バックドアトリガを除去する新たなAFT手法を提案する。
AFTは、クリーンサンプルの性能劣化を明白にすることなく、バックドアトリガを効果的に消去することができる。
論文 参考訳(メタデータ) (2022-02-13T13:41:15Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。