論文の概要: NNoculation: Catching BadNets in the Wild
- arxiv url: http://arxiv.org/abs/2002.08313v2
- Date: Mon, 15 Nov 2021 17:54:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 14:40:52.056970
- Title: NNoculation: Catching BadNets in the Wild
- Title(参考訳): NNoculation: 野生の悪いネットワークをキャッチする
- Authors: Akshaj Kumar Veldanda, Kang Liu, Benjamin Tan, Prashanth
Krishnamurthy, Farshad Khorrami, Ramesh Karri, Brendan Dolan-Gavitt, and
Siddharth Garg
- Abstract要約: 本稿では,バックドアニューラルネットワーク(BadNets)に対する新しい2段階防御(NNoculation)を提案する。
展開前の段階では、NNoculationはBadNetを無作為にクリーンなバリデーション入力の摂動で再訓練し、バックドアの対向的な影響を減らす。
NNoculationはデプロイ後、元のネットワークとデプロイ前のネットワーク間の不一致を記録することによって、バックドアテスト入力を検出し、隔離する。
- 参考スコア(独自算出の注目度): 25.686470363103144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel two-stage defense (NNoculation) against
backdoored neural networks (BadNets) that, repairs a BadNet both pre-deployment
and online in response to backdoored test inputs encountered in the field. In
the pre-deployment stage, NNoculation retrains the BadNet with random
perturbations of clean validation inputs to partially reduce the adversarial
impact of a backdoor. Post-deployment, NNoculation detects and quarantines
backdoored test inputs by recording disagreements between the original and
pre-deployment patched networks. A CycleGAN is then trained to learn
transformations between clean validation and quarantined inputs; i.e., it
learns to add triggers to clean validation images. Backdoored validation images
along with their correct labels are used to further retrain the pre-deployment
patched network, yielding our final defense. Empirical evaluation on a
comprehensive suite of backdoor attacks show that NNoculation outperforms all
state-of-the-art defenses that make restrictive assumptions and only work on
specific backdoor attacks, or fail on adaptive attacks. In contrast,
NNoculation makes minimal assumptions and provides an effective defense, even
under settings where existing defenses are ineffective due to attackers
circumventing their restrictive assumptions.
- Abstract(参考訳): 本稿では,バックドア付きニューラルネットワーク(badnets)に対する新たな2段階防御(noculation)を提案する。
前処理の段階では、NNoculationはBadNetをランダムな乱れでトレーニングし、バックドアの対向的な影響を部分的に低減する。
NNoculationはデプロイ後、元のネットワークとデプロイ前のネットワーク間の不一致を記録することによって、バックドアテスト入力を検出し、隔離する。
次にCycleGANは、クリーンな検証と隔離された入力の間の変換を学ぶように訓練される。
バックドア付き検証画像とその正しいラベルは、デプロイ前のパッチ付きネットワークを再トレーニングするために使用されます。
包括的バックドア攻撃のスイートにおける経験的評価は、ヌクシレーションが制限的な仮定を行い、特定のバックドア攻撃でのみ機能するか、適応攻撃で失敗するすべての最先端防御よりも優れていることを示している。
対照的に、NNoculationは最小限の仮定を行い、既存の防御が有効でない設定下であっても効果的な防御を提供する。
関連論文リスト
- Breaking the False Sense of Security in Backdoor Defense through Re-Activation Attack [32.74007523929888]
防衛後のバックドアモデルの特徴を再検討する。
既存の訓練後防衛戦略から派生した防衛モデルには,元のバックドアが現存していることが判明した。
我々は,これらの休眠バックドアを推論中に簡単に再活性化できることを実証的に示す。
論文 参考訳(メタデータ) (2024-05-25T08:57:30Z) - PECAN: A Deterministic Certified Defense Against Backdoor Attacks [17.0639534812572]
PECANは,バックドア攻撃に対する効果的かつ認証されたアプローチである。
PECANを画像分類とマルウェア検出データセットで評価する。
論文 参考訳(メタデータ) (2023-01-27T16:25:43Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Test-Time Detection of Backdoor Triggers for Poisoned Deep Neural
Networks [24.532269628999025]
深層ニューラルネットワーク(DNN)に対するバックドア(トロイの木馬)攻撃が出現
本稿では,画像分類に対するバックドア攻撃に対する「飛行中」防御法を提案する。
論文 参考訳(メタデータ) (2021-12-06T20:52:00Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - WaNet -- Imperceptible Warping-based Backdoor Attack [20.289889150949836]
サードパーティーのモデルは、通常の状況でうまく機能するようにトレーニング中に毒を盛るが、トリガーパターンが現れると悪質に振る舞う。
本稿では,サードパーティモデルに対してワーピングベースのトリガーを用いた攻撃手法を提案する。
提案したバックドアは、人間の検査試験における従来の方法よりも広いマージンで優れており、そのステルス性を証明している。
論文 参考訳(メタデータ) (2021-02-20T15:25:36Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z) - On Certifying Robustness against Backdoor Attacks via Randomized
Smoothing [74.79764677396773]
ランダム化平滑化法(ランダム化平滑化)と呼ばれる最近の手法を用いて,バックドア攻撃に対するロバスト性検証の有効性と有効性を検討した。
本研究は, バックドア攻撃に対するロバスト性を証明するために, ランダムな平滑化を用いた理論的実現可能性を示すものである。
既存の無作為な平滑化手法は、バックドア攻撃に対する防御効果に限界がある。
論文 参考訳(メタデータ) (2020-02-26T19:15:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。