論文の概要: On Certifying Robustness against Backdoor Attacks via Randomized
Smoothing
- arxiv url: http://arxiv.org/abs/2002.11750v4
- Date: Mon, 20 Jul 2020 16:15:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 15:55:08.413839
- Title: On Certifying Robustness against Backdoor Attacks via Randomized
Smoothing
- Title(参考訳): ランダム化平滑化によるバックドア攻撃に対するロバスト性証明について
- Authors: Binghui Wang, Xiaoyu Cao, Jinyuan jia, and Neil Zhenqiang Gong
- Abstract要約: ランダム化平滑化法(ランダム化平滑化)と呼ばれる最近の手法を用いて,バックドア攻撃に対するロバスト性検証の有効性と有効性を検討した。
本研究は, バックドア攻撃に対するロバスト性を証明するために, ランダムな平滑化を用いた理論的実現可能性を示すものである。
既存の無作為な平滑化手法は、バックドア攻撃に対する防御効果に限界がある。
- 参考スコア(独自算出の注目度): 74.79764677396773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attack is a severe security threat to deep neural networks (DNNs).
We envision that, like adversarial examples, there will be a cat-and-mouse game
for backdoor attacks, i.e., new empirical defenses are developed to defend
against backdoor attacks but they are soon broken by strong adaptive backdoor
attacks. To prevent such cat-and-mouse game, we take the first step towards
certified defenses against backdoor attacks. Specifically, in this work, we
study the feasibility and effectiveness of certifying robustness against
backdoor attacks using a recent technique called randomized smoothing.
Randomized smoothing was originally developed to certify robustness against
adversarial examples. We generalize randomized smoothing to defend against
backdoor attacks. Our results show the theoretical feasibility of using
randomized smoothing to certify robustness against backdoor attacks. However,
we also find that existing randomized smoothing methods have limited
effectiveness at defending against backdoor attacks, which highlight the needs
of new theory and methods to certify robustness against backdoor attacks.
- Abstract(参考訳): バックドア攻撃はディープニューラルネットワーク(DNN)に対する深刻なセキュリティ脅威である。
我々は、敵対的な例のように、バックドア攻撃のための猫とマウスのゲーム、すなわち、バックドア攻撃を防御するために新しい経験的防御が開発されるが、それらはすぐに強力な適応的バックドア攻撃によって壊れると予想する。
このようなキャット・アンド・ムースゲームを防止するため,バックドア攻撃に対する認証防御に向けて第一歩を踏み出す。
具体的には,近年のランダム化平滑化技術を用いて,バックドア攻撃に対するロバスト性検証の有効性と有効性を検討した。
ランダムな平滑化は、元来、敵の例に対する堅牢性を証明するために開発された。
バックドア攻撃に対する防御のため,ランダムなスムーシングを一般化する。
その結果,バックドア攻撃に対するロバスト性を証明するためにランダム化平滑化を用いた理論的実現可能性を示した。
しかし, 既存のランダム化平滑化手法は, バックドア攻撃に対する防御効果に限界があり, バックドア攻撃に対するロバスト性を証明する新たな理論や手法の必要性が浮き彫りになっている。
関連論文リスト
- Breaking the False Sense of Security in Backdoor Defense through Re-Activation Attack [32.74007523929888]
防衛後のバックドアモデルの特徴を再検討する。
既存の訓練後防衛戦略から派生した防衛モデルには,元のバックドアが現存していることが判明した。
我々は,これらの休眠バックドアを推論中に簡単に再活性化できることを実証的に示す。
論文 参考訳(メタデータ) (2024-05-25T08:57:30Z) - Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - Beating Backdoor Attack at Its Own Game [10.131734154410763]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
既存の防御方法は、攻撃の成功率を大幅に低下させた。
有害な試料を標的とした非敵のバックドアを注入する高効率な枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-28T13:07:42Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Defending Against Stealthy Backdoor Attacks [1.6453255188693543]
近年の研究では,ナチュラル言語処理(NLP)モデルに対する攻撃は困難ではないことが示されている。
本研究では,このような攻撃に対して有効な防衛戦略をいくつか提示する。
論文 参考訳(メタデータ) (2022-05-27T21:38:42Z) - Rethink Stealthy Backdoor Attacks in Natural Language Processing [35.6803390044542]
盗んだバックドア攻撃の能力は、バックドア攻撃に分類されると過大評価される。
クリーン状態と毒素状態モデルとのASR差を測定するASRD(Attack successful rate difference)と呼ばれる新しい指標を提案する。
本手法は,ステルスなバックドア攻撃に対する最先端の防御方法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-01-09T12:34:12Z) - ONION: A Simple and Effective Defense Against Textual Backdoor Attacks [91.83014758036575]
バックドア攻撃は、ディープニューラルネットワーク(DNN)に対する創発的な訓練時間の脅威である
本論文では,ONION という,シンプルで効果的なテキストバックドア・ディフェンスを提案する。
実験では,5種類のバックドア攻撃に対するBiLSTMとBERTの防御効果を示す。
論文 参考訳(メタデータ) (2020-11-20T12:17:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。