論文の概要: NBA: defensive distillation for backdoor removal via neural behavior alignment
- arxiv url: http://arxiv.org/abs/2406.10846v1
- Date: Sun, 16 Jun 2024 08:39:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 20:31:44.389379
- Title: NBA: defensive distillation for backdoor removal via neural behavior alignment
- Title(参考訳): NBA:神経行動アライメントによるバックドア除去のための防衛蒸留
- Authors: Zonghao Ying, Bin Wu,
- Abstract要約: バックドア除去のための新しい防御機構であるニューラル・ビヘイビア・アライメント(NBA)を提案する。
NBAは、知識の伝達を容易にするために、ネットワーク内での神経行動のハイレベルな表現を構築している。
NBAは6種類のバックドア攻撃を効果的に防ぎ、最先端の5つの防御を上回ります。
- 参考スコア(独自算出の注目度): 2.686336957004475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, deep neural networks have been shown to be vulnerable to backdoor attacks. A backdoor is inserted into neural networks via this attack paradigm, thus compromising the integrity of the network. As soon as an attacker presents a trigger during the testing phase, the backdoor in the model is activated, allowing the network to make specific wrong predictions. It is extremely important to defend against backdoor attacks since they are very stealthy and dangerous. In this paper, we propose a novel defense mechanism, Neural Behavioral Alignment (NBA), for backdoor removal. NBA optimizes the distillation process in terms of knowledge form and distillation samples to improve defense performance according to the characteristics of backdoor defense. NBA builds high-level representations of neural behavior within networks in order to facilitate the transfer of knowledge. Additionally, NBA crafts pseudo samples to induce student models exhibit backdoor neural behavior. By aligning the backdoor neural behavior from the student network with the benign neural behavior from the teacher network, NBA enables the proactive removal of backdoors. Extensive experiments show that NBA can effectively defend against six different backdoor attacks and outperform five state-of-the-art defenses.
- Abstract(参考訳): 近年、ディープニューラルネットワークはバックドア攻撃に弱いことが示されている。
この攻撃パラダイムを通じて、バックドアをニューラルネットワークに挿入することで、ネットワークの整合性を損なう。
攻撃者がテストフェーズ中にトリガーを提示すると、モデル内のバックドアがアクティベートされ、ネットワークが特定の間違った予測をすることができる。
非常にステルスで危険であるため、バックドア攻撃から守ることは極めて重要である。
本稿では,バックドア除去のための新しい防御機構であるニューラル・ビヘイビア・アライメント(NBA)を提案する。
NBAは、バックドアディフェンスの特徴に応じて防衛性能を向上させるため、知識形式と蒸留サンプルの観点から蒸留プロセスを最適化する。
NBAは、知識の伝達を容易にするために、ネットワーク内での神経行動のハイレベルな表現を構築している。
さらに、NBAは学生モデルにバックドア神経の振る舞いを誘導するために擬似サンプルを作成する。
学生ネットワークからのバックドア神経行動と教師ネットワークからの良性神経行動とを合わせることで、NBAはバックドアの積極的な除去を可能にする。
大規模な実験によると、NBAは6つのバックドア攻撃に対して効果的に防御でき、最先端の5つの防御を上回ります。
関連論文リスト
- Expose Before You Defend: Unifying and Enhancing Backdoor Defenses via Exposed Models [68.40324627475499]
本稿では,Expose Before You Defendという新しい2段階防衛フレームワークを紹介する。
EBYDは既存のバックドア防御手法を総合防衛システムに統合し、性能を向上する。
2つの視覚データセットと4つの言語データセットにまたがる10のイメージアタックと6つのテキストアタックに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-10-25T09:36:04Z) - Breaking the False Sense of Security in Backdoor Defense through Re-Activation Attack [32.74007523929888]
防衛後のバックドアモデルの特徴を再検討する。
既存の訓練後防衛戦略から派生した防衛モデルには,元のバックドアが現存していることが判明した。
我々は,これらの休眠バックドアを推論中に簡単に再活性化できることを実証的に示す。
論文 参考訳(メタデータ) (2024-05-25T08:57:30Z) - Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Verifying Neural Networks Against Backdoor Attacks [7.5033553032683855]
特定のニューラルネットワークが一定の成功率でバックドアのないかどうかを検証するためのアプローチを提案する。
実験結果から,バックドアの欠如やバックドアのトリガの発生を効果的に検証できることが示唆された。
論文 参考訳(メタデータ) (2022-05-14T07:25:54Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Reflection Backdoor: A Natural Backdoor Attack on Deep Neural Networks [46.99548490594115]
バックドア攻撃は、バックドアパターンをトレーニングデータのごく一部に注入することにより、バックドアを被害者モデルにインストールする。
被害者モデルにバックドアとして反射を植え付けるための反射バックドア(Refool)を提案する。
Refoolは最先端のDNNを高い成功率で攻撃することができる。
論文 参考訳(メタデータ) (2020-07-05T13:56:48Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。