論文の概要: Data-free Backdoor Removal based on Channel Lipschitzness
- arxiv url: http://arxiv.org/abs/2208.03111v1
- Date: Fri, 5 Aug 2022 11:46:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 13:17:08.785223
- Title: Data-free Backdoor Removal based on Channel Lipschitzness
- Title(参考訳): チャネルリプシッツネスに基づくデータフリーバックドア除去
- Authors: Runkai Zheng, Rongjun Tang, Jianze Li, Li Liu
- Abstract要約: 近年の研究では、ディープニューラルネットワーク(DNN)がバックドア攻撃に弱いことが示されている。
本研究では、入力画像から各チャネルの出力への写像のリプシッツ定数として定義されるチャネルリプシッツ定数(CLC)という新しい概念を導入する。
UCLCは重み行列から直接計算できるので、潜在的なバックドアチャネルをデータフリーで検出することができる。
- 参考スコア(独自算出の注目度): 8.273169655380896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that Deep Neural Networks (DNNs) are vulnerable to
the backdoor attacks, which leads to malicious behaviors of DNNs when specific
triggers are attached to the input images. It was further demonstrated that the
infected DNNs possess a collection of channels, which are more sensitive to the
backdoor triggers compared with normal channels. Pruning these channels was
then shown to be effective in mitigating the backdoor behaviors. To locate
those channels, it is natural to consider their Lipschitzness, which measures
their sensitivity against worst-case perturbations on the inputs. In this work,
we introduce a novel concept called Channel Lipschitz Constant (CLC), which is
defined as the Lipschitz constant of the mapping from the input images to the
output of each channel. Then we provide empirical evidences to show the strong
correlation between an Upper bound of the CLC (UCLC) and the trigger-activated
change on the channel activation. Since UCLC can be directly calculated from
the weight matrices, we can detect the potential backdoor channels in a
data-free manner, and do simple pruning on the infected DNN to repair the
model. The proposed Channel Lipschitzness based Pruning (CLP) method is super
fast, simple, data-free and robust to the choice of the pruning threshold.
Extensive experiments are conducted to evaluate the efficiency and
effectiveness of CLP, which achieves state-of-the-art results among the
mainstream defense methods even without any data. Source codes are available at
https://github.com/rkteddy/channel-Lipschitzness-based-pruning.
- Abstract(参考訳): 近年の研究では、ディープニューラルネットワーク(DNN)がバックドア攻撃に弱いことが示されており、入力画像に特定のトリガーが付加された場合、DNNの悪意ある振る舞いにつながる。
さらに、感染したDNNが通常のチャネルよりもバックドアトリガーに敏感なチャネルの集合体を持っていることが実証された。
これらのチャネルを切断すると、バックドアの挙動を緩和する効果が示された。
これらのチャネルを見つけるには、入力に対する最悪の摂動に対する感度を測定するリプシッツ性を考えるのが自然である。
本研究では、入力画像から各チャネルの出力へのマッピングのリプシッツ定数として定義されるチャネルリプシッツ定数(clc)という新しい概念を導入する。
次に,clc(uclc)の上限とチャネル活性化のトリガー活性化変化との間に強い相関を示すための実証的な証拠を与える。
UCLCは重量行列から直接計算できるので、潜在的なバックドアチャネルをデータフリーで検出し、感染したDNN上で簡単なプルーニングを行い、モデルを修復することができる。
提案するチャネルリプシッツネスベースプルーニング(CLP)法は,プルーニングしきい値の選択に対して,超高速で,シンプルで,データフリーで頑健である。
clpの効率と有効性を評価するために広範な実験を行い、データなしでも主流の防衛手法の中で最先端の成果を得られるようにした。
ソースコードはhttps://github.com/rkteddy/channel-lipschitzness-based-pruningで入手できる。
関連論文リスト
- Model Surgery: Modulating LLM's Behavior Via Simple Parameter Editing [63.20133320524577]
大言語モデル(LLM)は、ジェネラリストアシスタントとして大きな可能性を示している。
これらのモデルは、非毒性や脱獄の試みに対するレジリエンスなど、望ましい行動特性を示すことが重要である。
本稿では,パラメータの小さなサブセットを直接編集することで,LLMの特定の振る舞いを効果的に調節できることを観察する。
論文 参考訳(メタデータ) (2024-07-11T17:52:03Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - An Adaptive Black-box Backdoor Detection Method for Deep Neural Networks [25.593824693347113]
ディープニューラルネットワーク(DNN)は、医療診断や自律運転など、さまざまな分野において前例のないパフォーマンスを示している。
それらは、ステルスシートリガーによって制御され、活性化されるニューラルトロイの木馬攻撃(NT)に対して脆弱である。
本稿では,事前訓練したトロイの木馬が展開前にトロイの木馬に検出されたかどうかを検査するロバストで適応的なトロイの木馬検出手法を提案する。
論文 参考訳(メタデータ) (2022-04-08T23:41:19Z) - Chordal Sparsity for Lipschitz Constant Estimation of Deep Neural
Networks [77.82638674792292]
ニューラルネットワークのリプシッツ定数は、画像分類の堅牢性、コントローラ設計の安全性、トレーニングデータを超えた一般化性を保証する。
リプシッツ定数の計算はNPハードであるため、リプシッツ定数を推定する手法はスケーラビリティと精度のトレードオフをナビゲートする必要がある。
本研究では,LipSDPと呼ばれる半定値プログラミング手法のスケーラビリティフロンティアを大幅に推し進め,精度の損失をゼロにする。
論文 参考訳(メタデータ) (2022-04-02T11:57:52Z) - Adversarial Neuron Pruning Purifies Backdoored Deep Models [24.002034537777526]
アドリアリンプルーニング(英語版) (ANP) は、明らかな性能低下を引き起こすことなく、効果的に注入されたバックドアを除去する。
そこで本研究では, 感応性ニューロンをプルークし, 注入したバックドアを浄化する新しいモデル修復法, ANP (Adrial Neuron Pruning) を提案する。
論文 参考訳(メタデータ) (2021-10-27T13:41:53Z) - GDP: Stabilized Neural Network Pruning via Gates with Differentiable
Polarization [84.57695474130273]
ゲートベースまたは重要度に基づくプルーニング手法は、重要度が最小のチャネルを削除することを目的としている。
GDPは、各チャネルのオン・アンド・オフを制御するために、ベルやホイッスルのない畳み込み層の前に接続することができる。
CIFAR-10とImageNetデータセットを用いて行った実験は、提案したGDPが最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2021-09-06T03:17:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。