論文の概要: Backdoor Attacks and Countermeasures on Deep Learning: A Comprehensive
Review
- arxiv url: http://arxiv.org/abs/2007.10760v3
- Date: Sun, 2 Aug 2020 08:38:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:38:56.217959
- Title: Backdoor Attacks and Countermeasures on Deep Learning: A Comprehensive
Review
- Title(参考訳): 深層学習のバックドア攻撃と対策 : 総合的なレビュー
- Authors: Yansong Gao, Bao Gia Doan, Zhi Zhang, Siqi Ma, Jiliang Zhang, Anmin
Fu, Surya Nepal, and Hyoungshick Kim
- Abstract要約: この研究は、コミュニティにバックドア攻撃のタイムリーなレビューとディープラーニング対策を提供する。
攻撃者の能力と機械学習パイプラインの影響を受けたステージにより、攻撃面は広く認識される。
対策は、ブラインド・バックドア・インスペクション、オフライン・バックドア・インスペクション、オンライン・バックドア・インスペクション、ポスト・バックドア・インスペクションの4つの一般的なクラスに分類される。
- 参考スコア(独自算出の注目度): 40.36824357892676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work provides the community with a timely comprehensive review of
backdoor attacks and countermeasures on deep learning. According to the
attacker's capability and affected stage of the machine learning pipeline, the
attack surfaces are recognized to be wide and then formalized into six
categorizations: code poisoning, outsourcing, pretrained, data collection,
collaborative learning and post-deployment. Accordingly, attacks under each
categorization are combed. The countermeasures are categorized into four
general classes: blind backdoor removal, offline backdoor inspection, online
backdoor inspection, and post backdoor removal. Accordingly, we review
countermeasures, and compare and analyze their advantages and disadvantages. We
have also reviewed the flip side of backdoor attacks, which are explored for i)
protecting intellectual property of deep learning models, ii) acting as a
honeypot to catch adversarial example attacks, and iii) verifying data deletion
requested by the data contributor.Overall, the research on defense is far
behind the attack, and there is no single defense that can prevent all types of
backdoor attacks. In some cases, an attacker can intelligently bypass existing
defenses with an adaptive attack. Drawing the insights from the systematic
review, we also present key areas for future research on the backdoor, such as
empirical security evaluations from physical trigger attacks, and in
particular, more efficient and practical countermeasures are solicited.
- Abstract(参考訳): この研究は、コミュニティにバックドア攻撃のタイムリーなレビューとディープラーニング対策を提供する。
攻撃者の能力と機械学習パイプラインの影響を受けたステージにより、攻撃面は広く認識され、コード中毒、アウトソーシング、事前訓練されたデータ収集、協調学習、デプロイ後の6つのカテゴリに分類される。
これにより、各カテゴリの攻撃が組み合わされる。
対策は、ブラインドバックドア除去、オフラインバックドア検査、オンラインバックドア検査、ポストバックドア除去の4つの一般的なクラスに分類される。
そこで我々は,対策を見直し,その利点と欠点を比較し分析する。
我々はまた、調査中のバックドアアタックの反面についてもレビューした。
一 深層学習モデルの知的財産権の保護
二 敵の例攻撃を捕えるために新婚夫婦として振る舞うこと。
三 データ提供者が要求するデータ削除の検証 総じて、防衛に関する調査は攻撃の背後には遠く、あらゆる種類のバックドア攻撃を防止することができる防衛は一つもない。
場合によっては、攻撃者は適応攻撃で既存の防御を知的にバイパスすることができる。
システムレビューから得られた知見を踏まえて,物理的トリガ攻撃による実証的セキュリティ評価,特により効率的かつ実用的な対策が提案されているバックドアに関する今後の研究の鍵となる分野について述べる。
関連論文リスト
- Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - Backdoor Attacks and Countermeasures in Natural Language Processing Models: A Comprehensive Security Review [15.179940846141873]
サードパーティのデータやモデルを応用することは、NLPにおける言語モデリングの新しいパラダイムとなっている。
バックドア攻撃は 特定のトリガーを通して 予測された行動を示す モデルを誘導できる
セキュリティ上の課題、攻撃者の能力、目的を反映した、体系的で包括的なレビューはまだない。
論文 参考訳(メタデータ) (2023-09-12T08:48:38Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Detecting Backdoors in Deep Text Classifiers [43.36440869257781]
本稿では,テキスト分類モデルに対するバックドア攻撃を一般化する,最初の堅牢な防御機構を提案する。
我々の技術は、データ中毒や重毒など、最先端のバックドア攻撃に対する防御に極めて正確です。
論文 参考訳(メタデータ) (2022-10-11T07:48:03Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。