論文の概要: Defending Against Repetitive Backdoor Attacks on Semi-supervised Learning through Lens of Rate-Distortion-Perception Trade-off
- arxiv url: http://arxiv.org/abs/2407.10180v2
- Date: Wed, 04 Dec 2024 15:28:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:05:00.019490
- Title: Defending Against Repetitive Backdoor Attacks on Semi-supervised Learning through Lens of Rate-Distortion-Perception Trade-off
- Title(参考訳): 速度歪み知覚トレードオフレンズによる半教師あり学習における反復的バックドア攻撃の防止
- Authors: Cheng-Yi Lee, Ching-Chia Kao, Cheng-Han Yeh, Chun-Shien Lu, Chia-Mu Yu, Chu-Song Chen,
- Abstract要約: 半教師付き学習(SSL)は、わずかなラベル付きデータで顕著なパフォーマンスを達成した。
信頼できないデータの大規模なプールは、データ中毒に極めて脆弱であり、バックドア攻撃につながる可能性がある。
トリガーパターンとターゲットクラスの関係を阻害する新しい手法であるunlabeled Data Purification (UPure)を提案する。
- 参考スコア(独自算出の注目度): 20.713624299599722
- License:
- Abstract: Semi-supervised learning (SSL) has achieved remarkable performance with a small fraction of labeled data by leveraging vast amounts of unlabeled data from the Internet. However, this large pool of untrusted data is extremely vulnerable to data poisoning, leading to potential backdoor attacks. Current backdoor defenses are not yet effective against such a vulnerability in SSL. In this study, we propose a novel method, Unlabeled Data Purification (UPure), to disrupt the association between trigger patterns and target classes by introducing perturbations in the frequency domain. By leveraging the Rate-Distortion-Perception (RDP) trade-off, we further identify the frequency band, where the perturbations are added, and justify this selection. Notably, UPure purifies poisoned unlabeled data without the need of extra clean labeled data. Extensive experiments on four benchmark datasets and five SSL algorithms demonstrate that UPure effectively reduces the attack success rate from 99.78% to 0% while maintaining model accuracy. Code is available here: \url{https://github.com/chengyi-chris/UPure}.
- Abstract(参考訳): 半教師付き学習(SSL)は、インターネットから大量の未ラベルデータを活用することで、少数のラベル付きデータで顕著なパフォーマンスを達成した。
しかし、信頼できないデータの大規模なプールは、データ中毒に極めて脆弱であり、バックドア攻撃の可能性がある。
現在のバックドア防御はSSLのこのような脆弱性に対してまだ有効ではない。
本研究では、周波数領域に摂動を導入することで、トリガーパターンとターゲットクラスの関係を乱す新しい手法、Unlabeled Data Purification (UPure)を提案する。
RDP(Rate-Distortion-Perception)トレードオフを利用することで、摂動が加わった周波数帯域をさらに特定し、この選択を正当化する。
特に、UPureは、余分にクリーンなラベル付きデータを必要とせずに、有毒なラベル付きデータを浄化する。
4つのベンチマークデータセットと5つのSSLアルゴリズムに関する大規模な実験により、UPureはモデル精度を維持しながら攻撃成功率を99.78%から0%に効果的に下げることを示した。
コードは以下の通りである。
関連論文リスト
- Filter, Obstruct and Dilute: Defending Against Backdoor Attacks on Semi-Supervised Learning [29.65600202138321]
近年の研究では、半教師付き学習(SSL)がバックドア攻撃に影響を及ぼすデータに対して脆弱であることが確認されている。
この作業はSSLをこのようなリスクから保護することを目的としており、この領域で知られている数少ない取り組みの1つとしてマークされている。
論文 参考訳(メタデータ) (2025-02-09T03:22:15Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - Protecting Model Adaptation from Trojans in the Unlabeled Data [120.42853706967188]
本稿では,よく設計された毒物標的データによるモデル適応に対するトロイの木馬攻撃の可能性について検討する。
本稿では,既存の適応アルゴリズムとシームレスに統合可能なDiffAdaptというプラグイン・アンド・プレイ手法を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - ASSET: Robust Backdoor Data Detection Across a Multiplicity of Deep
Learning Paradigms [39.753721029332326]
バックドアデータ検出は、エンドツーエンドの教師あり学習(SL)設定で伝統的に研究されている。
近年,ラベル付きデータの必要性の低さから,自己教師付き学習(SSL)や転送学習(TL)の普及が進んでいる。
既存の検出手法の性能は様々な攻撃や毒素比で大きく異なり、すべて最先端のクリーンラベル攻撃では失敗する。
論文 参考訳(メタデータ) (2023-02-22T14:43:33Z) - ESTAS: Effective and Stable Trojan Attacks in Self-supervised Encoders
with One Target Unlabelled Sample [16.460288815336902]
ESTASは1つのターゲットクラスサンプルで99%の攻撃成功率(ASR)を達成する。
従来の研究と比較すると、ESTASは平均で30%のASR増加と8.3%の精度向上を達成した。
論文 参考訳(メタデータ) (2022-11-20T08:58:34Z) - PiDAn: A Coherence Optimization Approach for Backdoor Attack Detection
and Mitigation in Deep Neural Networks [22.900501880865658]
バックドア攻撃はディープニューラルネットワーク(DNN)に新たな脅威をもたらす
汚染されたデータを浄化するコヒーレンス最適化に基づくアルゴリズムであるPiDAnを提案する。
当社のPiDAnアルゴリズムは90%以上の感染クラスを検出でき、95%の有毒サンプルを識別できる。
論文 参考訳(メタデータ) (2022-03-17T12:37:21Z) - Robust Deep Semi-Supervised Learning: A Brief Introduction [63.09703308309176]
半教師付き学習(SSL)は、ラベルが不十分なときにラベル付きデータを活用することにより、学習性能を向上させることを目的としている。
ディープモデルによるSSLは、標準ベンチマークタスクで成功したことが証明されている。
しかし、それらは現実世界のアプリケーションにおける様々な堅牢性に対する脅威に対して依然として脆弱である。
論文 参考訳(メタデータ) (2022-02-12T04:16:41Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。