論文の概要: Backdoor Defense via Adaptively Splitting Poisoned Dataset
- arxiv url: http://arxiv.org/abs/2303.12993v1
- Date: Thu, 23 Mar 2023 02:16:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 16:00:30.378403
- Title: Backdoor Defense via Adaptively Splitting Poisoned Dataset
- Title(参考訳): 有害データセットの適応的分割によるバックドア防御
- Authors: Kuofeng Gao, Yang Bai, Jindong Gu, Yong Yang, Shu-Tao Xia
- Abstract要約: バックドアの防御は、ディープニューラルネットワーク(DNN)がバックドアを攻撃され、悪意ある変更を受けていることの脅威を軽減するために研究されている。
トレーニング時間防衛の核心は, 有毒な試料を選別し, 適切な処理を行うことである。
本フレームワークでは,適応的分割型データセットベースディフェンス(ASD)を提案する。
- 参考スコア(独自算出の注目度): 57.70673801469096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor defenses have been studied to alleviate the threat of deep neural
networks (DNNs) being backdoor attacked and thus maliciously altered. Since
DNNs usually adopt some external training data from an untrusted third party, a
robust backdoor defense strategy during the training stage is of importance. We
argue that the core of training-time defense is to select poisoned samples and
to handle them properly. In this work, we summarize the training-time defenses
from a unified framework as splitting the poisoned dataset into two data pools.
Under our framework, we propose an adaptively splitting dataset-based defense
(ASD). Concretely, we apply loss-guided split and meta-learning-inspired split
to dynamically update two data pools. With the split clean data pool and
polluted data pool, ASD successfully defends against backdoor attacks during
training. Extensive experiments on multiple benchmark datasets and DNN models
against six state-of-the-art backdoor attacks demonstrate the superiority of
our ASD. Our code is available at https://github.com/KuofengGao/ASD.
- Abstract(参考訳): バックドアディフェンスは、ディープニューラルネットワーク(DNN)がバックドアを攻撃され、悪質に変更されることの脅威を軽減するために研究されている。
DNNは通常、信頼できない第三者からの外部トレーニングデータを採用するため、トレーニング段階で堅牢なバックドア防衛戦略が重要である。
トレーニング時間防衛の核心は, 有毒な試料を選別し, 適切な処理を行うことである。
本稿では,汚染されたデータセットを2つのデータプールに分割することで,統一フレームワークからのトレーニング時間の防御を要約する。
本フレームワークでは,適応的に分割されたデータセットベースディフェンス(ASD)を提案する。
具体的には,損失誘導スプリットとメタ学習に触発されたスプリットを適用し,2つのデータプールを動的に更新する。
スプリットクリーンなデータプールと汚染されたデータプールによって、asdはトレーニング中にバックドア攻撃に対してうまく防御する。
最先端の6つのバックドア攻撃に対する複数のベンチマークデータセットとDNNモデルに対する大規模な実験は、ASDの優位性を示している。
私たちのコードはhttps://github.com/kuofenggao/asdで利用可能です。
関連論文リスト
- Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - Efficient Backdoor Attacks for Deep Neural Networks in Real-world Scenarios [17.928013313779516]
最近のディープニューラルネットワーク(DNN)は、膨大なトレーニングデータに依存している。
本稿では,被害者が複数の情報源からデータを収集する,より現実的な攻撃シナリオを提案する。
クリーンな特徴抑圧とPhoisoning Feature Augmentationの2つの異なるストリームからCLIPベースの3つの技術を紹介した。
論文 参考訳(メタデータ) (2023-06-14T09:21:48Z) - NCL: Textual Backdoor Defense Using Noise-augmented Contrastive Learning [14.537250979495596]
本研究では,テキストバックドア攻撃に対する防音学習フレームワークを提案する。
実験では,3種類のテキストバックドア攻撃を防御する手法の有効性を実証し,先行研究よりも優れていた。
論文 参考訳(メタデータ) (2023-03-03T07:07:04Z) - BackdoorBox: A Python Toolbox for Backdoor Learning [67.53987387581222]
このPythonツールボックスは、代表的で高度なバックドア攻撃と防御を実装している。
研究者や開発者は、ベンチマークやローカルデータセットで、さまざまなメソッドを簡単に実装し、比較することができる。
論文 参考訳(メタデータ) (2023-02-01T09:45:42Z) - COLLIDER: A Robust Training Framework for Backdoor Data [11.510009152620666]
ディープニューラルネットワーク(DNN)分類器は、バックドア攻撃に対して脆弱である。
敵は、トリガーをインストールすることで、そのような攻撃でトレーニングデータのいくつかを毒する。
最近、悪意のあるバックドアDNNを検出するための様々なアプローチが提案されている。
論文 参考訳(メタデータ) (2022-10-13T03:48:46Z) - Towards a Defense against Backdoor Attacks in Continual Federated
Learning [26.536009090970257]
連合型連続学習環境におけるバックドア攻撃を防御する新しい枠組みを提案する。
私たちのフレームワークでは,バックボーンモデルとシャドーモデルという,2つのモデルを並列にトレーニングしています。
我々は,既存のバックドア攻撃に対する防御において,我々の枠組みが著しく改善されることを実験的に示す。
論文 参考訳(メタデータ) (2022-05-24T03:04:21Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Anti-Backdoor Learning: Training Clean Models on Poisoned Data [17.648453598314795]
ディープニューラルネットワーク(DNN)に対するセキュリティ上の脅威としてバックドア攻撃が出現
提案手法は,バックドア・ポゾンデータを用いたアンファンクレーンモデルの学習を目的とした,アンファンティ・バックドア学習の概念を導入する。
バックドアポゾンデータ上でのABL学習モデルは、純粋にクリーンなデータでトレーニングされたのと同じ性能を実証的に示す。
論文 参考訳(メタデータ) (2021-10-22T03:30:48Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。