論文の概要: Revisiting the Auxiliary Data in Backdoor Purification
- arxiv url: http://arxiv.org/abs/2502.07231v1
- Date: Tue, 11 Feb 2025 03:46:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:05:35.499973
- Title: Revisiting the Auxiliary Data in Backdoor Purification
- Title(参考訳): バックドアの浄化における補助データの再検討
- Authors: Shaokui Wei, Shanchao Yang, Jiayin Liu, Hongyuan Zha,
- Abstract要約: バックドア攻撃は、攻撃者がトレーニングフェーズ中に機械学習モデルを微妙に操作した場合に発生する。
このような脅威を和らげるためには、様々なバックドアの浄化技術によって被害者のモデルを浄化する戦略が一般的である。
本研究では,SOTAのバックドア浄化技術について,様々な種類の実世界の補助的データセットを用いて検討した。
- 参考スコア(独自算出の注目度): 35.689214077873764
- License:
- Abstract: Backdoor attacks occur when an attacker subtly manipulates machine learning models during the training phase, leading to unintended behaviors when specific triggers are present. To mitigate such emerging threats, a prevalent strategy is to cleanse the victim models by various backdoor purification techniques. Despite notable achievements, current state-of-the-art (SOTA) backdoor purification techniques usually rely on the availability of a small clean dataset, often referred to as auxiliary dataset. However, acquiring an ideal auxiliary dataset poses significant challenges in real-world applications. This study begins by assessing the SOTA backdoor purification techniques across different types of real-world auxiliary datasets. Our findings indicate that the purification effectiveness fluctuates significantly depending on the type of auxiliary dataset used. Specifically, a high-quality in-distribution auxiliary dataset is essential for effective purification, whereas datasets from varied or out-of-distribution sources significantly degrade the defensive performance. Based on this, we propose Guided Input Calibration (GIC), which aims to improve purification efficacy by employing a learnable transformation. Guided by the victim model itself, GIC aligns the characteristics of the auxiliary dataset with those of the original training set. Comprehensive experiments demonstrate that GIC can substantially enhance purification performance across diverse types of auxiliary datasets. The code and data will be available via https://github.com/shawkui/BackdoorBenchER.
- Abstract(参考訳): バックドア攻撃は、攻撃者がトレーニングフェーズ中に機械学習モデルを微妙に操作した時に起こり、特定のトリガーが存在するときに意図しない振る舞いを引き起こす。
このような脅威を和らげるためには、様々なバックドアの浄化技術によって被害者のモデルを浄化する戦略が一般的である。
顕著な成果にもかかわらず、現在のSOTA(State-of-the-art)のバックドア浄化技術は通常、小さなクリーンデータセット(しばしば補助データセットと呼ばれる)の可用性に依存している。
しかし、理想的な補助データセットを取得することは、現実世界のアプリケーションにおいて大きな課題となる。
この研究は、さまざまな種類の現実世界の補助データセットにわたってSOTAのバックドア浄化技術を評価することから始まる。
以上の結果から, 浄化の有効性は, 使用する補助データセットの種類によって大きく変動することが示唆された。
具体的には,高品質な流通補助データセットが効果的な浄化に不可欠であるのに対して,多様な流通源や流通源からのデータセットは防御性能を著しく低下させる。
そこで本研究では,学習可能な変換による浄化効率の向上を目的としたガイド入力校正(GIC)を提案する。
被害者モデル自体によってガイドされたGICは、補助データセットの特徴と元のトレーニングセットの特徴を一致させる。
総合的な実験により、GICは様々な種類の補助データセットにわたる浄化性能を大幅に向上させることができることが示されている。
コードとデータはhttps://github.com/shawkui/BackdoorBenchER.comから入手できる。
関連論文リスト
- PAD-FT: A Lightweight Defense for Backdoor Attacks via Data Purification and Fine-Tuning [4.337364406035291]
バックドア攻撃はディープニューラルネットワークに重大な脅威をもたらす。
そこで,本論文では,新たな手法であるPAD-FTを提案する。この機構は,被害者モデルに悪影響を及ぼすために,新たなクリーンデータセットやファインチューンのみを必要としない。
本機構は,複数のバックドア攻撃手法やデータセットに対して優れた効果を示す。
論文 参考訳(メタデータ) (2024-09-18T15:47:23Z) - Beyond Efficiency: Molecular Data Pruning for Enhanced Generalization [30.738229850748137]
MolPegは、一般化を強化するための分子データプルーニングフレームワークである。
これは、事前訓練されたモデルでデータプルーニングを適用する、ソースフリーなデータプルーニングシナリオに焦点を当てている。
4つのダウンストリームタスクで既存のDPメソッドを一貫して上回ります。
論文 参考訳(メタデータ) (2024-09-02T09:06:04Z) - Importance-Aware Adaptive Dataset Distillation [53.79746115426363]
ディープラーニングモデルの開発は、大規模データセットの可用性によって実現されている。
データセットの蒸留は、大きな元のデータセットから必須情報を保持するコンパクトなデータセットを合成することを目的としている。
本稿では, 蒸留性能を向上する重要適応型データセット蒸留(IADD)法を提案する。
論文 参考訳(メタデータ) (2024-01-29T03:29:39Z) - Rethinking Backdoor Attacks on Dataset Distillation: A Kernel Method
Perspective [65.70799289211868]
本稿では, データセット蒸留に特化した2つの新しい理論駆動トリガパターン生成手法を提案する。
最適化に基づくトリガ設計フレームワークは,データセットの蒸留に対する効果的なバックドア攻撃を通知する。
論文 参考訳(メタデータ) (2023-11-28T09:53:05Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Backdoor Attacks Against Dataset Distillation [24.39067295054253]
本研究は,画像領域におけるデータセット蒸留モデルにより抽出されたデータに基づいて訓練されたモデルに対して,最初のバックドア攻撃を行う。
本研究では,NAIVEATTACKとDOORPINGの2種類のバックドア攻撃を提案する。
実験的な評価では、NAIVEATTACKは攻撃成功率(ASR)をある程度達成し、DOORPINGは全てのケースでより高いASRスコア(1.0に近かった)に達する。
論文 参考訳(メタデータ) (2023-01-03T16:58:34Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Gradient-based Data Subversion Attack Against Binary Classifiers [9.414651358362391]
本研究では,攻撃者がラベルのラベルに毒を盛り,システムの機能を損なうようなラベル汚染攻撃に焦点を当てる。
我々は、予測ラベルに対する微分可能凸損失関数の勾配をウォームスタートとして利用し、汚染するデータインスタンスの集合を見つけるための異なる戦略を定式化する。
本実験は,提案手法がベースラインより優れ,計算効率が高いことを示す。
論文 参考訳(メタデータ) (2021-05-31T09:04:32Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。