論文の概要: PureEBM: Universal Poison Purification via Mid-Run Dynamics of Energy-Based Models
- arxiv url: http://arxiv.org/abs/2405.19376v2
- Date: Sun, 2 Jun 2024 20:21:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 13:40:18.842563
- Title: PureEBM: Universal Poison Purification via Mid-Run Dynamics of Energy-Based Models
- Title(参考訳): PureEBM:エネルギーモデルミッドランダイナミクスによるユニバーサルポゾンの浄化
- Authors: Omead Pooladzandi, Jeffrey Jiang, Sunay Bhat, Gregory Pottie,
- Abstract要約: データ中毒攻撃は、機械学習モデルの完全性に重大な脅威をもたらす。
有害な白・灰色・黒色画像毒から自然に訓練された一般化を守る普遍的なデータ浄化法を提案する。
EBM は, 有毒な EBM トレーニングデータの存在下においても, 普遍的な浄化剤であり, 誘導性および無誘導性中毒に対する SoTA 防御が達成されている。
- 参考スコア(独自算出の注目度): 0.873811641236639
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data poisoning attacks pose a significant threat to the integrity of machine learning models by leading to misclassification of target distribution data by injecting adversarial examples during training. Existing state-of-the-art (SoTA) defense methods suffer from limitations, such as significantly reduced generalization performance and significant overhead during training, making them impractical or limited for real-world applications. In response to this challenge, we introduce a universal data purification method that defends naturally trained classifiers from malicious white-, gray-, and black-box image poisons by applying a universal stochastic preprocessing step $\Psi_{T}(x)$, realized by iterative Langevin sampling of a convergent Energy Based Model (EBM) initialized with an image $x.$ Mid-run dynamics of $\Psi_{T}(x)$ purify poison information with minimal impact on features important to the generalization of a classifier network. We show that EBMs remain universal purifiers, even in the presence of poisoned EBM training data, and achieve SoTA defense on leading triggered and triggerless poisons. This work is a subset of a larger framework introduced in \pgen with a more detailed focus on EBM purification and poison defense.
- Abstract(参考訳): データ中毒攻撃は、トレーニング中に敵の例を注入することで、ターゲットの分散データの誤分類につながることによって、機械学習モデルの完全性に重大な脅威をもたらす。
既存のSoTA(State-of-the-art)防衛手法は、一般化性能を著しく低下させ、訓練中のかなりのオーバーヘッドを低減し、現実のアプリケーションでは非現実的または限定的である。
この課題に対応するために、我々は、画像$xで初期化された収束エネルギーベースモデル(EBM)の反復的ランゲヴィンサンプリングにより実現された普遍確率前処理ステップ$\Psi_{T}(x)$を適用することにより、悪質な白、グレー、ブラックボックスのイメージ毒から自然に訓練された分類器を保護するユニバーサルデータ浄化手法を導入する。
$$\Psi_{T}(x)$のミッドランダイナミクス 分類器ネットワークの一般化に重要な機能に対する最小限の影響で毒情報を浄化する。
EBM は, 有毒な EBM トレーニングデータの存在下においても, 普遍的な浄化剤であり, 誘導性および無誘導性中毒に対する SoTA 防御が達成されている。
この研究は \pgen で導入されたより大きなフレームワークのサブセットであり、ESMの精製と毒の防御により詳細な焦点をあてている。
関連論文リスト
- ECLIPSE: Expunging Clean-label Indiscriminate Poisons via Sparse Diffusion Purification [29.28977815669999]
クリーンラベルの無差別な中毒攻撃は、正しくラベル付けされた訓練画像に目に見えない摂動を加える。
ECLIPSEという,より普遍的で実用的で堅牢な防衛手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T12:14:24Z) - PureGen: Universal Data Purification for Train-Time Poison Defense via Generative Model Dynamics [38.47830254923108]
トレインタイムのデータ中毒攻撃は、トレーニング中に敵対的な例を導入することによって機械学習モデルを脅かす。
本稿では,拡散エネルギーベースモデル (EBM) と Denoising Probabilistic Models (DDPMs) の反復的ランゲヴィンダイナミクスにより実現された変換($Psi(x)$)を用いた普遍的データ浄化手法を提案する。
これらのアプローチは、一般化に最小限の影響で有毒データを浄化する。
論文 参考訳(メタデータ) (2024-05-28T22:19:26Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Sharpness-Aware Data Poisoning Attack [38.01535347191942]
最近の研究は、データ中毒攻撃に対するディープニューラルネットワーク(DNN)の脆弱性を強調している。
我々は「SAPA(シャープネス・アウェア・データ・ポジショニング・アタック)」と呼ばれる新たな攻撃方法を提案する。
特に、DNNの損失ランドスケープシャープネスの概念を活用して、最悪の再訓練モデルに対する中毒効果を最適化する。
論文 参考訳(メタデータ) (2023-05-24T08:00:21Z) - Not All Poisons are Created Equal: Robust Training against Data
Poisoning [15.761683760167777]
データ中毒は、トレーニングデータに悪意ある工芸品のサンプルを注入することで、テスト時間対象のサンプルを誤分類する。
各種データ中毒攻撃の成功率を大幅に低減する効率的な防御機構を提案する。
論文 参考訳(メタデータ) (2022-10-18T08:19:41Z) - Adversarial purification with Score-based generative models [56.88185136509654]
本稿では,DSM(Denoising Score-Matching)を訓練したEMMに基づく新しい逆浄化法を提案する。
本稿では,画像にランダムノイズを注入する簡易で効果的なランダム化浄化手法を提案する。
精製法は様々な攻撃に対して堅牢であり,その最先端性能を示す。
論文 参考訳(メタデータ) (2021-06-11T04:35:36Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Stochastic Security: Adversarial Defense Using Long-Run Dynamics of
Energy-Based Models [82.03536496686763]
敵対的攻撃に対するディープ・ネットワークの脆弱性は、認識とセキュリティの両方の観点から、ディープ・ラーニングの中心的な問題である。
我々は,自然学習型分類器の保護に重点を置き,マルコフ・チェイン・モンテカルロ (MCMC) とエネルギーベースモデル (EBM) を併用して敵の浄化を行った。
本研究は,1)現実的な長期MCMCサンプルを用いたEMMの訓練方法の改善,2)防衛の理論的曖昧さを解消する期待・オフバー・トランスフォーメーション(EOT)ディフェンス,3)自然に訓練された分類器と競争的ディフェンスのための最先端の対人ディフェンス,である。
論文 参考訳(メタデータ) (2020-05-27T17:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。