論文の概要: Minimal Cascade Gradient Smoothing for Fast Transferable Preemptive Adversarial Defense
- arxiv url: http://arxiv.org/abs/2407.15524v8
- Date: Wed, 08 Oct 2025 13:35:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 23:39:13.993455
- Title: Minimal Cascade Gradient Smoothing for Fast Transferable Preemptive Adversarial Defense
- Title(参考訳): 高速移動型プリエンプティブ・ディフェンスのための最小カスケード勾配平滑化法
- Authors: Hanrui Wang, Ching-Chun Chang, Chun-Shien Lu, Ching-Chia Kao, Isao Echizen,
- Abstract要約: Minimal Sufficient Preemptive Defense (MSPD)は、ターゲットモデルやグラデーションにアクセスせずに将来の攻撃を防御する高速フレームワークである。
MSPDは0.02s/image (CIFAR-10) と 0.26s/image (ImageNet) で動作し、事前プリエンプティブメソッドよりも28-1696倍高速である。
Preemptive Reversionは、フルアクセス下でプリエンプティブ摂動をキャンセルする最初のホワイトボックス診断攻撃である。
- 参考スコア(独自算出の注目度): 17.603114590159553
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Adversarial attacks persist as a major challenge in deep learning. While training- and test-time defenses are well-studied, they often reduce clean accuracy, incur high cost, or fail under adaptive threats. In contrast, preemptive defenses, which perturb media before release, offer a practical alternative but remain slow, model-coupled, and brittle. We propose the Minimal Sufficient Preemptive Defense (MSPD), a fast, transferable framework that defends against future attacks without access to the target model or gradients. MSPD is driven by Minimal Cascade Gradient Smoothing (MCGS), a two-epoch optimization paradigm executed on a surrogate backbone. This defines a minimal yet effective regime for robust generalization across unseen models and attacks. MSPD runs at 0.02s/image (CIFAR-10) and 0.26s/image (ImageNet), 28--1696x faster than prior preemptive methods, while improving robust accuracy by +5% and clean accuracy by +3.7% across 11 models and 7 attacks. To evaluate adaptive robustness, we introduce Preemptive Reversion, the first white-box diagnostic attack that cancels preemptive perturbations under full gradient access. Even in this setting, MSPD retains a +2.2% robustness margin over the baseline. In practice, when gradients are unavailable, MSPD remains reliable and efficient. MSPD, MCGS, and Preemptive Reversion are each supported by formal theoretical proofs. The implementation is available at https://github.com/azrealwang/MSPD.
- Abstract(参考訳): 敵対的攻撃は深層学習における大きな課題として継続する。
トレーニングとテストタイムの防御はよく研究されているが、クリーンな正確さを減らしたり、高いコストを発生させたり、適応的な脅威の下で失敗することが多い。
対照的に、プリエンプティブ・ディフェンス(プリエンプティブ・ディフェンス、プリエンプティブ・ディフェンス)は、放出前にメディアを混乱させるが、実用的な代替手段を提供する。
我々は,目標モデルや勾配にアクセスせずに将来の攻撃を防御する,高速かつ移動可能なフレームワークであるMSPD(Minimmal Sufficient Preemptive Defense)を提案する。
MSPDは最小カスケード勾配平滑化(MCGS)によって駆動される。
これは、目に見えないモデルや攻撃にまたがる堅牢な一般化のための最小限の効果的な体制を定義する。
MSPDは0.02s/image (CIFAR-10) と 0.26s/image (ImageNet) で動作し、以前のプリエンプティブメソッドよりも28-1696倍高速で、ロバスト精度は+5%向上し、11モデルと7攻撃で+3.7%向上した。
適応的ロバスト性を評価するために,完全勾配アクセス下でのプリエンプティブ摂動をキャンセルする最初のホワイトボックス診断攻撃であるプリエンプティブ・リバージョン(Preemptive Reversion)を導入する。
この設定でさえ、MSPDはベースラインに対して+2.2%の堅牢性マージンを維持している。
実際には、勾配が利用できない場合、MSPDは信頼性と効率が保たれる。
MSPD、MCGS、プリエンプティブ・リバージョンはそれぞれ公式な理論的証明によって支持されている。
実装はhttps://github.com/azrealwang/MSPDで公開されている。
関連論文リスト
- Gradient-Free Adversarial Purification with Diffusion Models [10.917491144598575]
敵の訓練と敵の浄化は、敵の攻撃に対するモデルの堅牢性を高める効果的な方法である。
本稿では,摂動と非拘束の両敵攻撃を効果的かつ効果的に防御する手法を提案する。
論文 参考訳(メタデータ) (2025-01-23T02:34:14Z) - Test-time Adversarial Defense with Opposite Adversarial Path and High Attack Time Cost [5.197034517903854]
対向対向経路(OAP)に沿った拡散に基づく新しい対向防御法について検討する。
我々は、敵攻撃に抵抗するために、事前訓練されたモデルに差し込むことができる浄化器を提案する。
論文 参考訳(メタデータ) (2024-10-22T08:32:17Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Position: Towards Resilience Against Adversarial Examples [42.09231029292568]
我々は、敵の弾力性の定義と、敵の弾力性のある防御を設計する方法について概観する。
次に, 対向弾性のサブプロブレムを導入し, 連続適応ロバストネス(continuousal adapt robustness)と呼ぶ。
本研究では, 連続適応ロバストネスと, マルチアタックロバストネスと予期せぬアタックロバストネスの関連性を実証する。
論文 参考訳(メタデータ) (2024-05-02T14:58:44Z) - MPAT: Building Robust Deep Neural Networks against Textual Adversarial
Attacks [4.208423642716679]
本稿では,敵対的攻撃に対する堅牢な深層ニューラルネットワーク構築のための悪質な摂動に基づく敵対的訓練法を提案する。
具体的には、悪意のある摂動を伴う敵例を生成するために、多段階の悪意のあるサンプル生成戦略を構築する。
本研究では, 目標達成のために, 目標達成のための新たな訓練目標関数を, 本来のタスクの性能を損なうことなく採用する。
論文 参考訳(メタデータ) (2024-02-29T01:49:18Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Continual Adversarial Defense [37.37029638528458]
防衛システムは、敵データをオンラインで継続的に収集し、迅速に自己改善する。
新たな攻撃への継続的な適応は、壊滅的な忘れ、少数ショット適応、メモリ効率適応、クリーンデータと逆データの両方において高い精度である。
特にCADは、前回の攻撃に対して優れた性能を維持しつつ、最小限の予算と低コストの防衛失敗に迅速に適応することができる。
論文 参考訳(メタデータ) (2023-12-15T01:38:26Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。