論文の概要: DHBE: Data-free Holistic Backdoor Erasing in Deep Neural Networks via
Restricted Adversarial Distillation
- arxiv url: http://arxiv.org/abs/2306.08009v1
- Date: Tue, 13 Jun 2023 09:29:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 23:31:57.165837
- Title: DHBE: Data-free Holistic Backdoor Erasing in Deep Neural Networks via
Restricted Adversarial Distillation
- Title(参考訳): DHBE:Restricted Adversarial Distillationによるディープニューラルネットワークにおけるデータフリーなホロスティックバックドア消去
- Authors: Zhicong Yan, Shenghong Li, Ruijie Zhao, Yuan Tian, Yuanyuan Zhao
- Abstract要約: ディープニューラルネットワーク(DNN)に対する緊急の脅威として、バックドア攻撃が出現した
本稿では,データフリーなバックドア消去フレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.312060320787833
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Backdoor attacks have emerged as an urgent threat to Deep Neural Networks
(DNNs), where victim DNNs are furtively implanted with malicious neurons that
could be triggered by the adversary. To defend against backdoor attacks, many
works establish a staged pipeline to remove backdoors from victim DNNs:
inspecting, locating, and erasing. However, in a scenario where a few clean
data can be accessible, such pipeline is fragile and cannot erase backdoors
completely without sacrificing model accuracy. To address this issue, in this
paper, we propose a novel data-free holistic backdoor erasing (DHBE) framework.
Instead of the staged pipeline, the DHBE treats the backdoor erasing task as a
unified adversarial procedure, which seeks equilibrium between two different
competing processes: distillation and backdoor regularization. In distillation,
the backdoored DNN is distilled into a proxy model, transferring its knowledge
about clean data, yet backdoors are simultaneously transferred. In backdoor
regularization, the proxy model is holistically regularized to prevent from
infecting any possible backdoor transferred from distillation. These two
processes jointly proceed with data-free adversarial optimization until a
clean, high-accuracy proxy model is obtained. With the novel adversarial
design, our framework demonstrates its superiority in three aspects: 1) minimal
detriment to model accuracy, 2) high tolerance for hyperparameters, and 3) no
demand for clean data. Extensive experiments on various backdoor attacks and
datasets are performed to verify the effectiveness of the proposed framework.
Code is available at \url{https://github.com/yanzhicong/DHBE}
- Abstract(参考訳): バックドア攻撃はディープニューラルネットワーク(DNN)に対する緊急の脅威として現れており、被害者のDNNは敵が引き起こす可能性のある悪意のあるニューロンを強制的に埋め込んでいる。
バックドア攻撃を防御するために、多くの作業が、被害者のDNNからバックドアを検査、配置、消去するステージドパイプラインを構築している。
しかし、いくつかのクリーンデータにアクセス可能なシナリオでは、そのようなパイプラインは脆弱で、モデル精度を犠牲にすることなくバックドアを完全に消去することはできない。
この問題に対処するため,本稿では,新しいデータフリー・ホリスティック・バックドア消去(DHBE)フレームワークを提案する。
ステージ化されたパイプラインの代わりに、DHBEはバックドア消去タスクを、蒸留とバックドア正則化という2つの異なる競合するプロセスの平衡を求める、統一された対逆手順として扱う。
蒸留では、バックドアDNNはプロキシモデルに蒸留され、クリーンデータに関する知識を伝達するが、バックドアは同時に転送される。
バックドアの正則化では、蒸留から転送されるバックドアの感染を防ぐためにプロキシモデルがホリスティックに正則化される。
これら2つのプロセスは、クリーンで高精度なプロキシモデルが得られるまで、データフリーの逆最適化と共同で進行する。
新たな敵対的デザインにより、我々の枠組みは3つの側面においてその優位性を示す。
1) モデル精度に対する最小限の負担
2)ハイパーパラメータに対する高い耐性、及び
3) クリーンデータの要求がない。
提案フレームワークの有効性を検証するため,様々なバックドア攻撃およびデータセットに関する大規模な実験を行った。
コードは \url{https://github.com/yanzhicong/DHBE} で入手できる。
関連論文リスト
- Expose Before You Defend: Unifying and Enhancing Backdoor Defenses via Exposed Models [68.40324627475499]
本稿では,Expose Before You Defendという新しい2段階防衛フレームワークを紹介する。
EBYDは既存のバックドア防御手法を総合防衛システムに統合し、性能を向上する。
2つの視覚データセットと4つの言語データセットにまたがる10のイメージアタックと6つのテキストアタックに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-10-25T09:36:04Z) - "No Matter What You Do!": Mitigating Backdoor Attacks in Graph Neural Networks [33.07926413485209]
GNNのバックドア攻撃は、攻撃者がトリガーを埋め込むことでグラフデータの一部を修正したという事実にある。
GNNにおける最初のバックドア緩和手法であるGCleanerを提案する。
GCleanerは、クリーンデータのわずか1%でバックドア攻撃の成功率を10%に下げることができ、ほぼ無視できるモデル性能の低下がある。
論文 参考訳(メタデータ) (2024-10-02T06:30:49Z) - Mitigating Backdoors within Deep Neural Networks in Data-limited
Configuration [1.1663475941322277]
バックドアされたディープニューラルネットワークは、テスト時にサンプルにトリガーが注入されたときに悪意を持って振る舞いながら、クリーンなデータに正常な振る舞いを示す。
本稿では, 有毒ニューロンの特性を定式化する。
このバックドア不確実性スコアは、ネットワークニューロンの活性化値、重み、および同一層の他のニューロンとの関係に応じてランク付けすることができる。
論文 参考訳(メタデータ) (2023-11-13T15:54:27Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Model-Contrastive Learning for Backdoor Defense [13.781375023320981]
モデル・コントラスト学習に基づく新しいバックドア・ディフェンス手法 MCL を提案する。
MCLは、良質なデータの高い精度を維持しながら、バックドアの脅威を減らすのに効果的である。
論文 参考訳(メタデータ) (2022-05-09T16:36:46Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。