論文の概要: PUREVQ-GAN: Defending Data Poisoning Attacks through Vector-Quantized Bottlenecks
- arxiv url: http://arxiv.org/abs/2509.25792v1
- Date: Tue, 30 Sep 2025 05:04:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.435797
- Title: PUREVQ-GAN: Defending Data Poisoning Attacks through Vector-Quantized Bottlenecks
- Title(参考訳): PUREVQ-GAN:ベクター量子化ボトルネックによるデータ攻撃の防止
- Authors: Alexander Branch, Omead Pooladzandi, Radin Khosraviani, Sunay Gajanan Bhat, Jeffrey Jiang, Gregory Pottie,
- Abstract要約: PureVQ-GANはセマンティックコンテンツを保持しながらきめ細かいトリガーパターンを破壊する。
CIFAR-10では、PureVQ-GANはグラディエントマッチングやブルジー・ポリトープ攻撃に対して0%の毒性成功率(PSR)を達成する。
何百もの反復的な精錬ステップを必要とする拡散ベースの防御とは異なり、PureVQ-GANは50倍以上高速である。
- 参考スコア(独自算出の注目度): 36.477909715001466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce PureVQ-GAN, a defense against data poisoning that forces backdoor triggers through a discrete bottleneck using Vector-Quantized VAE with GAN discriminator. By quantizing poisoned images through a learned codebook, PureVQ-GAN destroys fine-grained trigger patterns while preserving semantic content. A GAN discriminator ensures outputs match the natural image distribution, preventing reconstruction of out-of-distribution perturbations. On CIFAR-10, PureVQ-GAN achieves 0% poison success rate (PSR) against Gradient Matching and Bullseye Polytope attacks, and 1.64% against Narcissus while maintaining 91-95% clean accuracy. Unlike diffusion-based defenses requiring hundreds of iterative refinement steps, PureVQ-GAN is over 50x faster, making it practical for real training pipelines.
- Abstract(参考訳): 本稿では,Vector-Quantized VAEとGAN判別器を用いて,バックドアが個別のボトルネックを通じて引き起こされるデータ中毒に対する防御策であるPureVQ-GANを紹介する。
学習したコードブックを通じて有毒画像を定量化することにより、PureVQ-GANはセマンティックコンテンツを保存しながらきめ細かいトリガーパターンを破壊する。
GAN判別器は、自然な画像分布に一致した出力を保証し、分布外摂動の再構成を防止する。
CIFAR-10では、PureVQ-GANは、グラディエントマッチングやブルゼー・ポリトープ攻撃に対して0%の毒性成功率(PSR)、ナルシッソスに対する1.64%を達成し、91-95%の清潔な精度を維持した。
何百もの反復的な洗練ステップを必要とする拡散ベースのディフェンスとは異なり、PureVQ-GANは50倍以上高速であり、実際のトレーニングパイプラインで実用的である。
関連論文リスト
- CopyrightShield: Enhancing Diffusion Model Security against Copyright Infringement Attacks [61.06621533874629]
拡散モデルは、攻撃者が戦略的に修正された非侵害画像をトレーニングセットに注入する著作権侵害攻撃に弱い。
まず、上記の攻撃に対して防御するための防御フレームワーク、PhiliptyShieldを提案する。
実験により,PhiliptyShieldは2つの攻撃シナリオで有毒なサンプル検出性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-12-02T14:19:44Z) - Instant Adversarial Purification with Adversarial Consistency Distillation [1.3165428727965363]
One Step Control Purification (OSCP) は、単一の神経機能評価において頑健な敵の浄化を実現する新しい防御フレームワークである。
ImageNetの実験結果はOSCPの優れた性能を示し、74.19%の防衛成功率を達成し、純度は0.1秒に過ぎなかった。
論文 参考訳(メタデータ) (2024-08-30T07:49:35Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - DataElixir: Purifying Poisoned Dataset to Mitigate Backdoor Attacks via
Diffusion Models [12.42597979026873]
汚染されたデータセットを浄化するための新しい衛生手法であるDataElixirを提案する。
我々は拡散モデルを利用してトリガーの特徴を排除し、良性の特徴を復元し、毒を盛ったサンプルを良性のものに変える。
9つの人気のある攻撃で実施された実験は、DataElixirが様々な複雑な攻撃を効果的に軽減し、良識の正確さに最小限の影響を与えることを示した。
論文 参考訳(メタデータ) (2023-12-18T09:40:38Z) - DiffAttack: Evasion Attacks Against Diffusion-Based Adversarial
Purification [63.65630243675792]
拡散に基づく浄化防御は拡散モデルを利用して、敵の例の人工摂動を除去する。
近年の研究では、先進的な攻撃でさえ、そのような防御を効果的に破壊できないことが示されている。
拡散型浄化防衛を効果的かつ効率的に行うための統合フレームワークDiffAttackを提案する。
論文 参考訳(メタデータ) (2023-10-27T15:17:50Z) - Deep Partition Aggregation: Provable Defense against General Poisoning
Attacks [136.79415677706612]
アドリアリン中毒は、分類器の試験時間挙動を損なうために訓練データを歪ませる。
毒殺攻撃に対する2つの新たな防御策を提案する。
DPAは一般的な中毒脅威モデルに対する認証された防御である。
SS-DPAはラベルフリップ攻撃に対する認証された防御である。
論文 参考訳(メタデータ) (2020-06-26T03:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。