論文の概要: Eliminating Backdoor Triggers for Deep Neural Networks Using Attention
Relation Graph Distillation
- arxiv url: http://arxiv.org/abs/2204.09975v1
- Date: Thu, 21 Apr 2022 09:01:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 13:59:58.883513
- Title: Eliminating Backdoor Triggers for Deep Neural Networks Using Attention
Relation Graph Distillation
- Title(参考訳): 注意関係グラフ蒸留を用いた深部ニューラルネットワークのバックドアトリガー除去
- Authors: Jun Xia, Ting Wang, Jieping Ding, Xian Wei, Mingsong Chen
- Abstract要約: 注意関係グラフ蒸留(ARGD)という新しいバックドア防御フレームワークを導入する。
提案したアテンション関係グラフ(ARG)を用いて,異なる順序で注目特徴間の相関関係を探索する。
- 参考スコア(独自算出の注目度): 14.78529243589096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the prosperity of Artificial Intelligence (AI) techniques, more and
more backdoors are designed by adversaries to attack Deep Neural Networks
(DNNs).Although the state-of-the-art method Neural Attention Distillation (NAD)
can effectively erase backdoor triggers from DNNs, it still suffers from
non-negligible Attack Success Rate (ASR) together with lowered classification
ACCuracy (ACC), since NAD focuses on backdoor defense using attention features
(i.e., attention maps) of the same order. In this paper, we introduce a novel
backdoor defense framework named Attention Relation Graph Distillation (ARGD),
which fully explores the correlation among attention features with different
orders using our proposed Attention Relation Graphs (ARGs). Based on the
alignment of ARGs between both teacher and student models during knowledge
distillation, ARGD can eradicate more backdoor triggers than NAD. Comprehensive
experimental results show that, against six latest backdoor attacks, ARGD
outperforms NAD by up to 94.85% reduction in ASR, while ACC can be improved by
up to 3.23%.
- Abstract(参考訳): 人工知能(ai)技術の繁栄により、より多くのバックドアが敵によって設計され、ディープニューラルネットワーク(dnn)を攻撃する。
最新の方法であるニューラルアテンション蒸留(NAD)は、DNNからのバックドアトリガーを効果的に消し去ることができるが、同じ順序のアテンション特徴(注意マップ)を用いたバックドアディフェンスに焦点を当てているため、未確認のアタック成功率(ASR)と低分類のACC(ACC)とを併せ持つ。
本稿では,アテンションリレーショナルグラフ蒸留(ARGD)と呼ばれる新しいバックドアディフェンスフレームワークを紹介し,アテンションリレーショナルグラフ(ARG)を用いて,アテンション特徴と異なる順序との相関性について検討する。
知識蒸留における教師モデルと学生モデルの両方のARGのアライメントに基づいて、ARGDはNADよりもバックドアトリガーを根絶することができる。
総合的な実験の結果、最新の6つのバックドア攻撃に対して、ARGDはNADを94.85%減少させ、ACCを3.23%改善させることができる。
関連論文リスト
- SAB:A Stealing and Robust Backdoor Attack based on Steganographic Algorithm against Federated Learning [3.6411410406927938]
フェデレートラーニング(Federated Learning)は、ユーザのプライバシを保護するために設計された、革新的なネットワークアーキテクチャである。
新たな目標は、盗みと堅牢な連邦学習バックドアアタックを開発することだ。
本稿では,フェデレートラーニングにおけるバックドアアタックに特化した新しいアプローチであるSABを紹介する。
論文 参考訳(メタデータ) (2024-08-25T08:54:08Z) - Rethinking Pruning for Backdoor Mitigation: An Optimization Perspective [19.564985801521814]
バックドアモデルの修復に,グラフニューラルネットワーク(GNN)と強化学習(RL)を併用したONP(Optimized Neuron Pruning)法を提案する。
少量のクリーンデータにより、ONPは、無視可能な性能劣化を犠牲にして、バックドアアタックによって埋め込まれたバックドアニューロンを効果的にプルークすることができる。
論文 参考訳(メタデータ) (2024-05-28T01:59:06Z) - Elijah: Eliminating Backdoors Injected in Diffusion Models via
Distribution Shift [86.92048184556936]
DMの最初のバックドア検出・除去フレームワークを提案する。
DDPM, NCSN, LDMを含む3種類のDMを用いて, フレームワークのElijahを評価した。
提案手法では, モデルの有用性を著しく損なうことなく, 検出精度が100%に近づき, バックドア効果をゼロに抑えることができる。
論文 参考訳(メタデータ) (2023-11-27T23:58:56Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - SanitAIs: Unsupervised Data Augmentation to Sanitize Trojaned Neural
Networks [0.0]
UDAは,特徴空間と点トリガの両方に対する現在の最先端手法よりも,トリガの効果の除去に有効であることを示す。
これらの結果は、UDAがニューラルネットワークに対するバックドアの効果を緩和するための効果的かつ実践的なアプローチであることを示している。
論文 参考訳(メタデータ) (2021-09-09T21:29:12Z) - Neural Attention Distillation: Erasing Backdoor Triggers from Deep
Neural Networks [17.648453598314795]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に弱いことが知られている。
バックドア攻撃は、テスト時にモデルの予測を制御するために、少量のトレーニングデータにトリガーパターンを注入する。
バックドアDNNからバックドアトリガーを消去する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T01:35:22Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z) - Refined Gate: A Simple and Effective Gating Mechanism for Recurrent
Units [68.30422112784355]
本稿では,この問題に対処する一般ゲートリカレントニューラルネットワークにおける新しいゲーティング機構を提案する。
提案したゲートは、抽出された入力特徴とバニラゲートの出力を直接的にショートする。
LSTM, GRU, MGUの3種類のゲートRNNに対して, 提案したゲーティング機構を検証する。
論文 参考訳(メタデータ) (2020-02-26T07:51:38Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。