論文の概要: Neural Polarizer: A Lightweight and Effective Backdoor Defense via
Purifying Poisoned Features
- arxiv url: http://arxiv.org/abs/2306.16697v1
- Date: Thu, 29 Jun 2023 05:39:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 14:36:37.445660
- Title: Neural Polarizer: A Lightweight and Effective Backdoor Defense via
Purifying Poisoned Features
- Title(参考訳): ニューラルポラライザー:毒物浄化による軽量で効果的なバックドア防御
- Authors: Mingli Zhu, Shaokui Wei, Hongyuan Zha, Baoyuan Wu
- Abstract要約: 近年の研究では、バックドア攻撃に対するディープニューラルネットワークの感受性が示されている。
本研究では,学習可能なニューラルポーラライザを中間層としてバックドアモデルに挿入することで,新たなバックドア防御手法を提案する。
- 参考スコア(独自算出の注目度): 62.82817831278743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have demonstrated the susceptibility of deep neural networks
to backdoor attacks. Given a backdoored model, its prediction of a poisoned
sample with trigger will be dominated by the trigger information, though
trigger information and benign information coexist. Inspired by the mechanism
of the optical polarizer that a polarizer could pass light waves with
particular polarizations while filtering light waves with other polarizations,
we propose a novel backdoor defense method by inserting a learnable neural
polarizer into the backdoored model as an intermediate layer, in order to
purify the poisoned sample via filtering trigger information while maintaining
benign information. The neural polarizer is instantiated as one lightweight
linear transformation layer, which is learned through solving a well designed
bi-level optimization problem, based on a limited clean dataset. Compared to
other fine-tuning-based defense methods which often adjust all parameters of
the backdoored model, the proposed method only needs to learn one additional
layer, such that it is more efficient and requires less clean data. Extensive
experiments demonstrate the effectiveness and efficiency of our method in
removing backdoors across various neural network architectures and datasets,
especially in the case of very limited clean data.
- Abstract(参考訳): 近年,ディープニューラルネットワークのバックドア攻撃に対する感受性が実証されている。
バックドアモデルが与えられた場合、トリガーを伴う有毒サンプルの予測はトリガー情報によって支配されるが、トリガー情報と良性情報は共存する。
偏光器が特定の偏光を通すことができる光偏光器の機構に着想を得て, 学習可能なニューラル偏光器をバックドアモデルに中間層として挿入することで, 良質な情報を維持しつつ, トリガ情報を用いて汚染試料を浄化する新しいバックドアディフェンス法を提案する。
ニューラル偏光器は1つの軽量線形変換層としてインスタンス化され、限られたクリーンデータセットに基づいて、よく設計された2レベル最適化問題の解法によって学習される。
バックドアモデルの全パラメータをよく調整する他の微調整ベースの防御手法と比較して、提案手法はより効率的でクリーンなデータを必要としないような追加のレイヤを学習するだけである。
大規模な実験は、ニューラルネットワークアーキテクチャやデータセット、特に非常に限られたクリーンデータにおいて、バックドアを除去する手法の有効性と効率を実証する。
関連論文リスト
- PAD-FT: A Lightweight Defense for Backdoor Attacks via Data Purification and Fine-Tuning [4.337364406035291]
バックドア攻撃はディープニューラルネットワークに重大な脅威をもたらす。
そこで,本論文では,新たな手法であるPAD-FTを提案する。この機構は,被害者モデルに悪影響を及ぼすために,新たなクリーンデータセットやファインチューンのみを必要としない。
本機構は,複数のバックドア攻撃手法やデータセットに対して優れた効果を示す。
論文 参考訳(メタデータ) (2024-09-18T15:47:23Z) - Fisher Information guided Purification against Backdoor Attacks [22.412186735687786]
我々は、新しいバックドア浄化フレームワーク、Fisher Information Guided Purification (FIP)を提案する。
FIPは、バックドア効果の抑制と、クリーンなデータ分布の取得した知識を維持するためにモデルを支援する2つの新しい正規化器で構成されている。
さらに、Fast FIPと呼ばれる効率的なFIPを導入し、チューニング可能なパラメータの数を著しく削減し、約5倍のランタイムゲインを得る。
論文 参考訳(メタデータ) (2024-09-01T23:09:44Z) - Augmented Neural Fine-Tuning for Efficient Backdoor Purification [16.74156528484354]
最近の研究では、様々なバックドア攻撃に対するディープニューラルネットワーク(DNN)の脆弱性が明らかにされている。
神経活動の最適再編成を目的としたニューラルマスクファインチューニング(NFT)を提案する。
NFTはトリガー合成プロセスを緩和し、逆探索モジュールの要求をなくす。
論文 参考訳(メタデータ) (2024-07-14T02:36:54Z) - PSBD: Prediction Shift Uncertainty Unlocks Backdoor Detection [57.571451139201855]
予測シフトバックドア検出(英: Prediction Shift Backdoor Detection、PSBD)は、ディープニューラルネットワークにおけるバックドアサンプルを識別する新しい手法である。
PSBDは興味深い予測シフト(PS)現象によって動機付けられており、クリーンなデータに対する有害なモデルの予測は、しばしば真のラベルから別のラベルへとシフトする。
PSBDは、モデル推論中にドロップアウト層をオン/オフする際の確率値のばらつきである予測シフト不確実性(PSU)を計算することで、バックドアトレーニングサンプルを特定する。
論文 参考訳(メタデータ) (2024-06-09T15:31:00Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Rethinking Backdoor Attacks on Dataset Distillation: A Kernel Method
Perspective [65.70799289211868]
本稿では, データセット蒸留に特化した2つの新しい理論駆動トリガパターン生成手法を提案する。
最適化に基づくトリガ設計フレームワークは,データセットの蒸留に対する効果的なバックドア攻撃を通知する。
論文 参考訳(メタデータ) (2023-11-28T09:53:05Z) - Polarized skylight orientation determination artificial neural network [4.834173456342489]
本稿では,偏光を用いた方向決定のためのニューラルネットワークを提案する。
ネットワークにおいて、偏光度(DOP)と偏光角度(AOP)を直接抽出する。
論文 参考訳(メタデータ) (2021-07-06T00:19:22Z) - Adaptive conversion of real-valued input into spike trains [91.3755431537592]
本稿では,実数値入力をスパイクトレインに変換し,スパイクニューラルネットワークで処理する方法を提案する。
提案手法は網膜神経節細胞の適応的挙動を模倣し,入力ニューロンが入力の統計の変化に応答することを可能にする。
論文 参考訳(メタデータ) (2021-04-12T12:33:52Z) - Face Anti-Spoofing by Learning Polarization Cues in a Real-World
Scenario [50.36920272392624]
顔の偽造は生体認証アプリケーションにおけるセキュリティ侵害を防ぐ鍵となる。
RGBと赤外線画像を用いたディープラーニング手法は,新たな攻撃に対する大量のトレーニングデータを必要とする。
本研究では,実顔の偏光画像の物理的特徴を自動的に学習することにより,現実のシナリオにおける顔のアンチ・スプーフィング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T03:04:03Z) - Polarizing Front Ends for Robust CNNs [23.451381552751393]
本稿では,データを分極し定量化する非線形フロントエンドを用いて,逆方向の摂動を減衰させるボトムアップ戦略を提案する。
理想的な分極は、摂動を完全に排除し、データのほぼ偏極ベースを学習するためのアルゴリズムを開発し、提案手法がMNISTおよびFashion MNISTデータセット上で有効であることを示す。
論文 参考訳(メタデータ) (2020-02-22T00:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。