論文の概要: Neural Polarizer: A Lightweight and Effective Backdoor Defense via
Purifying Poisoned Features
- arxiv url: http://arxiv.org/abs/2306.16697v1
- Date: Thu, 29 Jun 2023 05:39:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 14:36:37.445660
- Title: Neural Polarizer: A Lightweight and Effective Backdoor Defense via
Purifying Poisoned Features
- Title(参考訳): ニューラルポラライザー:毒物浄化による軽量で効果的なバックドア防御
- Authors: Mingli Zhu, Shaokui Wei, Hongyuan Zha, Baoyuan Wu
- Abstract要約: 近年の研究では、バックドア攻撃に対するディープニューラルネットワークの感受性が示されている。
本研究では,学習可能なニューラルポーラライザを中間層としてバックドアモデルに挿入することで,新たなバックドア防御手法を提案する。
- 参考スコア(独自算出の注目度): 62.82817831278743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have demonstrated the susceptibility of deep neural networks
to backdoor attacks. Given a backdoored model, its prediction of a poisoned
sample with trigger will be dominated by the trigger information, though
trigger information and benign information coexist. Inspired by the mechanism
of the optical polarizer that a polarizer could pass light waves with
particular polarizations while filtering light waves with other polarizations,
we propose a novel backdoor defense method by inserting a learnable neural
polarizer into the backdoored model as an intermediate layer, in order to
purify the poisoned sample via filtering trigger information while maintaining
benign information. The neural polarizer is instantiated as one lightweight
linear transformation layer, which is learned through solving a well designed
bi-level optimization problem, based on a limited clean dataset. Compared to
other fine-tuning-based defense methods which often adjust all parameters of
the backdoored model, the proposed method only needs to learn one additional
layer, such that it is more efficient and requires less clean data. Extensive
experiments demonstrate the effectiveness and efficiency of our method in
removing backdoors across various neural network architectures and datasets,
especially in the case of very limited clean data.
- Abstract(参考訳): 近年,ディープニューラルネットワークのバックドア攻撃に対する感受性が実証されている。
バックドアモデルが与えられた場合、トリガーを伴う有毒サンプルの予測はトリガー情報によって支配されるが、トリガー情報と良性情報は共存する。
偏光器が特定の偏光を通すことができる光偏光器の機構に着想を得て, 学習可能なニューラル偏光器をバックドアモデルに中間層として挿入することで, 良質な情報を維持しつつ, トリガ情報を用いて汚染試料を浄化する新しいバックドアディフェンス法を提案する。
ニューラル偏光器は1つの軽量線形変換層としてインスタンス化され、限られたクリーンデータセットに基づいて、よく設計された2レベル最適化問題の解法によって学習される。
バックドアモデルの全パラメータをよく調整する他の微調整ベースの防御手法と比較して、提案手法はより効率的でクリーンなデータを必要としないような追加のレイヤを学習するだけである。
大規模な実験は、ニューラルネットワークアーキテクチャやデータセット、特に非常に限られたクリーンデータにおいて、バックドアを除去する手法の有効性と効率を実証する。
関連論文リスト
- Rethinking Backdoor Attacks on Dataset Distillation: A Kernel Method
Perspective [65.70799289211868]
本稿では, データセット蒸留に特化した2つの新しい理論駆動トリガパターン生成手法を提案する。
最適化に基づくトリガ設計フレームワークは,データセットの蒸留に対する効果的なバックドア攻撃を通知する。
論文 参考訳(メタデータ) (2023-11-28T09:53:05Z) - Efficient Backdoor Removal Through Natural Gradient Fine-tuning [4.753323975780736]
最近のバックドア攻撃は、敵がそのようなトレーニングの詳細を活用でき、ディープニューラルネットワーク(DNN)の完全性を損なうことを示唆している。
我々の研究では、バックドアモデルは通常、悪い局所的なミニマ、すなわち良質なモデルよりもシャープなミニマに最適化されていることが示されている。
本研究では,1層のみを微調整することによってバックドアを除去することに焦点を当てた,新しいバックドア技術であるNatural Gradient Fine-tuning(NGF)を提案する。
論文 参考訳(メタデータ) (2023-06-30T07:25:38Z) - PiDAn: A Coherence Optimization Approach for Backdoor Attack Detection
and Mitigation in Deep Neural Networks [22.900501880865658]
バックドア攻撃はディープニューラルネットワーク(DNN)に新たな脅威をもたらす
汚染されたデータを浄化するコヒーレンス最適化に基づくアルゴリズムであるPiDAnを提案する。
当社のPiDAnアルゴリズムは90%以上の感染クラスを検出でき、95%の有毒サンプルを識別できる。
論文 参考訳(メタデータ) (2022-03-17T12:37:21Z) - Polarized skylight orientation determination artificial neural network [4.834173456342489]
本稿では,偏光を用いた方向決定のためのニューラルネットワークを提案する。
ネットワークにおいて、偏光度(DOP)と偏光角度(AOP)を直接抽出する。
論文 参考訳(メタデータ) (2021-07-06T00:19:22Z) - Adaptive conversion of real-valued input into spike trains [91.3755431537592]
本稿では,実数値入力をスパイクトレインに変換し,スパイクニューラルネットワークで処理する方法を提案する。
提案手法は網膜神経節細胞の適応的挙動を模倣し,入力ニューロンが入力の統計の変化に応答することを可能にする。
論文 参考訳(メタデータ) (2021-04-12T12:33:52Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Shortcuts to Dynamic Polarization [0.0]
動的分極プロトコルは、量子ドットや色欠陥などのよく制御された量子ビットからスピン分極を移すことによってスピン浴を過分極することを目的としている。
双極子相互作用系に適用可能な中心スピンモデルにおける高速かつ効率的な動的偏光プロトコルを設計する。
論文 参考訳(メタデータ) (2020-11-10T19:00:53Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Face Anti-Spoofing by Learning Polarization Cues in a Real-World
Scenario [50.36920272392624]
顔の偽造は生体認証アプリケーションにおけるセキュリティ侵害を防ぐ鍵となる。
RGBと赤外線画像を用いたディープラーニング手法は,新たな攻撃に対する大量のトレーニングデータを必要とする。
本研究では,実顔の偏光画像の物理的特徴を自動的に学習することにより,現実のシナリオにおける顔のアンチ・スプーフィング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T03:04:03Z) - Polarizing Front Ends for Robust CNNs [23.451381552751393]
本稿では,データを分極し定量化する非線形フロントエンドを用いて,逆方向の摂動を減衰させるボトムアップ戦略を提案する。
理想的な分極は、摂動を完全に排除し、データのほぼ偏極ベースを学習するためのアルゴリズムを開発し、提案手法がMNISTおよびFashion MNISTデータセット上で有効であることを示す。
論文 参考訳(メタデータ) (2020-02-22T00:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。