論文の概要: ECLIPSE: Expunging Clean-label Indiscriminate Poisons via Sparse Diffusion Purification
- arxiv url: http://arxiv.org/abs/2406.15093v2
- Date: Tue, 25 Jun 2024 01:07:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 19:19:57.960176
- Title: ECLIPSE: Expunging Clean-label Indiscriminate Poisons via Sparse Diffusion Purification
- Title(参考訳): ECLIPSE:スパース拡散精製によるクリーンラベル不識別毒素の伸長
- Authors: Xianlong Wang, Shengshan Hu, Yechao Zhang, Ziqi Zhou, Leo Yu Zhang, Peng Xu, Wei Wan, Hai Jin,
- Abstract要約: クリーンラベルの無差別な中毒攻撃は、正しくラベル付けされた訓練画像に目に見えない摂動を加える。
ECLIPSEという,より普遍的で実用的で堅牢な防衛手法を提案する。
- 参考スコア(独自算出の注目度): 29.28977815669999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clean-label indiscriminate poisoning attacks add invisible perturbations to correctly labeled training images, thus dramatically reducing the generalization capability of the victim models. Recently, some defense mechanisms have been proposed such as adversarial training, image transformation techniques, and image purification. However, these schemes are either susceptible to adaptive attacks, built on unrealistic assumptions, or only effective against specific poison types, limiting their universal applicability. In this research, we propose a more universally effective, practical, and robust defense scheme called ECLIPSE. We first investigate the impact of Gaussian noise on the poisons and theoretically prove that any kind of poison will be largely assimilated when imposing sufficient random noise. In light of this, we assume the victim has access to an extremely limited number of clean images (a more practical scene) and subsequently enlarge this sparse set for training a denoising probabilistic model (a universal denoising tool). We then begin by introducing Gaussian noise to absorb the poisons and then apply the model for denoising, resulting in a roughly purified dataset. Finally, to address the trade-off of the inconsistency in the assimilation sensitivity of different poisons by Gaussian noise, we propose a lightweight corruption compensation module to effectively eliminate residual poisons, providing a more universal defense approach. Extensive experiments demonstrate that our defense approach outperforms 10 state-of-the-art defenses. We also propose an adaptive attack against ECLIPSE and verify the robustness of our defense scheme. Our code is available at https://github.com/CGCL-codes/ECLIPSE.
- Abstract(参考訳): クリーンラベル無差別中毒攻撃は、正しくラベル付けされた訓練画像に目に見えない摂動を付加し、犠牲者モデルの一般化能力を劇的に低下させる。
近年, 対人訓練, 画像変換技術, 画像浄化などの防御機構が提案されている。
しかしながら、これらのスキームは適応的な攻撃を受けやすく、非現実的な仮定に基づいて構築されるか、特定の毒の種類に対してのみ有効であり、普遍的な適用性が制限される。
本研究では,ECLIPSEと呼ばれる,より普遍的で実用的で堅牢な防衛手法を提案する。
まず, ガウスノイズが毒に与える影響について検討し, 十分なランダムノイズを与えると, あらゆる種類の毒がほぼ同化されることを理論的に証明する。
これを踏まえ、被害者は極めて限られた数のクリーンイメージ(より実用的なシーン)にアクセスでき、その後、このスパースセットを拡大して、認知確率モデルを訓練する(普遍的認知型ツール)。
まず、毒を吸収するためにガウスノイズを導入し、デノナイズのためのモデルを適用し、大まかに精製されたデータセットを作成する。
最後に,ガウスノイズによる各種毒素の同化感受性の不整合のトレードオフに対処するため,残留毒素を効果的に除去する軽量な汚濁補償モジュールを提案し,より普遍的な防御手法を提案する。
大規模な実験により、我々の防衛アプローチは10の最先端防衛よりも優れていることが示された。
また,ECLIPSEに対する適応攻撃を提案し,防衛計画の堅牢性を検証する。
私たちのコードはhttps://github.com/CGCL-codes/ECLIPSEで利用可能です。
関連論文リスト
- Deferred Poisoning: Making the Model More Vulnerable via Hessian Singularization [39.37308843208039]
我々は、より脅迫的なタイプの毒殺攻撃(Dederred Poisoning Attack)を導入する。
この新たな攻撃により、モデルは通常、トレーニングと検証フェーズで機能するが、回避攻撃や自然騒音に非常に敏感になる。
提案手法の理論的および実証的な解析を行い、画像分類タスクの実験を通してその効果を検証した。
論文 参考訳(メタデータ) (2024-11-06T08:27:49Z) - Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders [101.42201747763178]
未学習例(UE)は、正しくラベル付けされたトレーニング例に微妙な修正を加えることで、テストエラーの最大化を目指している。
我々の研究は、効率的な事前学習浄化法を構築するための、新しいゆがみ機構を提供する。
論文 参考訳(メタデータ) (2024-05-02T16:49:25Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Diffusion Theory as a Scalpel: Detecting and Purifying Poisonous
Dimensions in Pre-trained Language Models Caused by Backdoor or Bias [64.81358555107788]
事前訓練された言語モデル(PLM)は、微調整プロセス中に疑わしい攻撃者が注入したバックドアやバイアスによって有毒である可能性がある。
本研究では, 拡散理論を応用し, 微調整の動的過程を解明し, 潜在的有毒な次元を見つけるための微細浄化法を提案する。
我々の知識を最大限に活用するために、我々は安全・防衛目的の拡散理論によって導かれる力学を初めて研究する。
論文 参考訳(メタデータ) (2023-05-08T08:40:30Z) - Not All Poisons are Created Equal: Robust Training against Data
Poisoning [15.761683760167777]
データ中毒は、トレーニングデータに悪意ある工芸品のサンプルを注入することで、テスト時間対象のサンプルを誤分類する。
各種データ中毒攻撃の成功率を大幅に低減する効率的な防御機構を提案する。
論文 参考訳(メタデータ) (2022-10-18T08:19:41Z) - Friendly Noise against Adversarial Noise: A Powerful Defense against
Data Poisoning Attacks [15.761683760167777]
目に見えない)データ中毒攻撃の強力なカテゴリは、特定のテストタイムデータの予測を変更するために、小さな敵の摂動によってトレーニングサンプルのサブセットを変更する。
そこで本研究では, 従来の手法とは異なり, 一般化性能の低下により, 各種の目に見えない毒素攻撃を破る手法を提案する。
提案手法は, 性能を劣化させることなく, 最大摂動例に最適化された親和性雑音と, ランダムに変化する雑音成分の2成分からなる。
論文 参考訳(メタデータ) (2022-08-14T02:41:05Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。