論文の概要: DeepSweep: An Evaluation Framework for Mitigating DNN Backdoor Attacks
using Data Augmentation
- arxiv url: http://arxiv.org/abs/2012.07006v2
- Date: Sun, 11 Apr 2021 17:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 12:39:56.474485
- Title: DeepSweep: An Evaluation Framework for Mitigating DNN Backdoor Attacks
using Data Augmentation
- Title(参考訳): DeepSweep: データ拡張によるDNNバックドア攻撃の軽減のための評価フレームワーク
- Authors: Han Qiu, Yi Zeng, Shangwei Guo, Tianwei Zhang, Meikang Qiu, Bhavani
Thuraisingham
- Abstract要約: サードパーティプロバイダは、有毒なサンプルをデータセットに注入したり、Deep Learningモデルにバックドアを埋め込むことができる。
異なるバックドア攻撃に対する防御の最適方針を見いだすための体系的アプローチを提案する。
特定政策は,8種類のバックドア攻撃を効果的に軽減し,既存の5つの防御方法より優れる。
- 参考スコア(独自算出の注目度): 16.455154794893055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Public resources and services (e.g., datasets, training platforms,
pre-trained models) have been widely adopted to ease the development of Deep
Learning-based applications. However, if the third-party providers are
untrusted, they can inject poisoned samples into the datasets or embed
backdoors in those models. Such an integrity breach can cause severe
consequences, especially in safety- and security-critical applications. Various
backdoor attack techniques have been proposed for higher effectiveness and
stealthiness. Unfortunately, existing defense solutions are not practical to
thwart those attacks in a comprehensive way.
In this paper, we investigate the effectiveness of data augmentation
techniques in mitigating backdoor attacks and enhancing DL models' robustness.
An evaluation framework is introduced to achieve this goal. Specifically, we
consider a unified defense solution, which (1) adopts a data augmentation
policy to fine-tune the infected model and eliminate the effects of the
embedded backdoor; (2) uses another augmentation policy to preprocess input
samples and invalidate the triggers during inference. We propose a systematic
approach to discover the optimal policies for defending against different
backdoor attacks by comprehensively evaluating 71 state-of-the-art data
augmentation functions. Extensive experiments show that our identified policy
can effectively mitigate eight different kinds of backdoor attacks and
outperform five existing defense methods. We envision this framework can be a
good benchmark tool to advance future DNN backdoor studies.
- Abstract(参考訳): パブリックリソースとサービス(データセット、トレーニングプラットフォーム、事前訓練されたモデルなど)は、ディープラーニングベースのアプリケーションの開発を容易にするために広く採用されている。
しかし、サードパーティプロバイダが信頼できない場合は、データセットに毒入りサンプルを注入したり、モデルにバックドアを埋め込むことができる。
このような完全性侵害は、特に安全およびセキュリティクリティカルなアプリケーションにおいて深刻な結果をもたらす可能性がある。
高い有効性とステルス性のために様々なバックドア攻撃技術が提案されている。
残念ながら、既存の防衛ソリューションはこれらの攻撃を包括的に阻止するには実用的ではない。
本稿では,バックドア攻撃を緩和し,DLモデルの堅牢性を高めるためのデータ拡張手法の有効性を検討する。
この目標を達成するために評価フレームワークが導入された。
具体的には,(1)感染モデルの微調整と組込みバックドアの効果の排除のためにデータ拡張ポリシーを採用し,(2)別の拡張ポリシーを用いて入力サンプルの前処理と推論中のトリガの無効化を行う統一防衛ソリューションを検討する。
本研究では,71の最先端データ拡張機能を包括的に評価することにより,異なるバックドア攻撃に対する防御策を見出すための体系的アプローチを提案する。
8種類のバックドア攻撃を効果的に軽減し,既存の5つの防御方法より優れることを示す。
我々は、このフレームワークが将来のDNNバックドア研究を前進させる良いベンチマークツールになることを期待している。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - Efficient Backdoor Attacks for Deep Neural Networks in Real-world Scenarios [17.928013313779516]
最近のディープニューラルネットワーク(DNN)は、膨大なトレーニングデータに依存している。
本稿では,被害者が複数の情報源からデータを収集する,より現実的な攻撃シナリオを提案する。
クリーンな特徴抑圧とPhoisoning Feature Augmentationの2つの異なるストリームからCLIPベースの3つの技術を紹介した。
論文 参考訳(メタデータ) (2023-06-14T09:21:48Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - Model-Contrastive Learning for Backdoor Defense [13.781375023320981]
モデル・コントラスト学習に基づく新しいバックドア・ディフェンス手法 MCL を提案する。
MCLは、良質なデータの高い精度を維持しながら、バックドアの脅威を減らすのに効果的である。
論文 参考訳(メタデータ) (2022-05-09T16:36:46Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。