論文の概要: Backdoor Learning: A Survey
- arxiv url: http://arxiv.org/abs/2007.08745v5
- Date: Wed, 16 Feb 2022 06:39:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:29:11.231132
- Title: Backdoor Learning: A Survey
- Title(参考訳): バックドア学習: 調査
- Authors: Yiming Li, Yong Jiang, Zhifeng Li, Shu-Tao Xia
- Abstract要約: バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
- 参考スコア(独自算出の注目度): 75.59571756777342
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Backdoor attack intends to embed hidden backdoor into deep neural networks
(DNNs), so that the attacked models perform well on benign samples, whereas
their predictions will be maliciously changed if the hidden backdoor is
activated by attacker-specified triggers. This threat could happen when the
training process is not fully controlled, such as training on third-party
datasets or adopting third-party models, which poses a new and realistic
threat. Although backdoor learning is an emerging and rapidly growing research
area, its systematic review, however, remains blank. In this paper, we present
the first comprehensive survey of this realm. We summarize and categorize
existing backdoor attacks and defenses based on their characteristics, and
provide a unified framework for analyzing poisoning-based backdoor attacks.
Besides, we also analyze the relation between backdoor attacks and relevant
fields ($i.e.,$ adversarial attacks and data poisoning), and summarize widely
adopted benchmark datasets. Finally, we briefly outline certain future research
directions relying upon reviewed works. A curated list of backdoor-related
resources is also available at
\url{https://github.com/THUYimingLi/backdoor-learning-resources}.
- Abstract(参考訳): バックドア攻撃は、隠れたバックドアをディープニューラルネットワーク(DNN)に埋め込むことを目的としており、攻撃されたモデルが良質なサンプルでうまく機能するようにしている。
この脅威は、サードパーティデータセットのトレーニングやサードパーティモデルの採用など、トレーニングプロセスが完全にコントロールされていない場合に起こり、新たな現実的な脅威を引き起こす可能性がある。
バックドア学習は急速に普及している研究分野であるが、体系的なレビューはいまだに空白である。
本稿では,この領域の包括的調査を初めて実施する。
我々は,既存のバックドア攻撃と防御をその特性に基づいて要約し,分類し,中毒性に基づくバックドア攻撃を分析するための統一フレームワークを提供する。
さらに,バックドア攻撃と関連する分野(いわゆる$adversarial attack and data poisoning)の関係を分析し,広く採用されているベンチマークデータセットを要約した。
最後に,レビュー作品に依拠する今後の研究方向について概説する。
バックドア関連のリソースのキュレーションリストは、 \url{https://github.com/thuyimingli/backdoor-learning-resources}でも見ることができる。
関連論文リスト
- Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - BackdoorBox: A Python Toolbox for Backdoor Learning [67.53987387581222]
このPythonツールボックスは、代表的で高度なバックドア攻撃と防御を実装している。
研究者や開発者は、ベンチマークやローカルデータセットで、さまざまなメソッドを簡単に実装し、比較することができる。
論文 参考訳(メタデータ) (2023-02-01T09:45:42Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Attacks and Countermeasures on Deep Learning: A Comprehensive
Review [40.36824357892676]
この研究は、コミュニティにバックドア攻撃のタイムリーなレビューとディープラーニング対策を提供する。
攻撃者の能力と機械学習パイプラインの影響を受けたステージにより、攻撃面は広く認識される。
対策は、ブラインド・バックドア・インスペクション、オフライン・バックドア・インスペクション、オンライン・バックドア・インスペクション、ポスト・バックドア・インスペクションの4つの一般的なクラスに分類される。
論文 参考訳(メタデータ) (2020-07-21T12:49:12Z) - Backdoors in Neural Models of Source Code [13.960152426268769]
ソースコードの深層学習の文脈でバックドアを研究する。
このようなバックドアをインストールするためにデータセットに毒を盛る方法を示す。
また、バックドアの注入の容易さと、それを除去する能力も示しています。
論文 参考訳(メタデータ) (2020-06-11T21:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。