論文の概要: Fast Preemption: Forward-Backward Cascade Learning for Efficient and Transferable Preemptive Adversarial Defense
- arxiv url: http://arxiv.org/abs/2407.15524v7
- Date: Thu, 06 Mar 2025 13:03:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 19:22:36.291670
- Title: Fast Preemption: Forward-Backward Cascade Learning for Efficient and Transferable Preemptive Adversarial Defense
- Title(参考訳): 高速プリエンプション:効率的かつ移動可能なプリエンプティブ・ディフェンスのための前方後方カスケード学習
- Authors: Hanrui Wang, Ching-Chun Chang, Chun-Shien Lu, Isao Echizen,
- Abstract要約: 高速プリエンプション(Fast Preemption)は、最先端の堅牢性と転送可能性を達成する一方で、効率上の課題を克服する、新しい先制敵防衛である。
わずか3イテレーションで実行することで、Fast Preemptionは既存のトレーニング時間、テスト時間、プリエンプティブディフェンスを上回っます。
- 参考スコア(独自算出の注目度): 13.252842556505174
- License:
- Abstract: {Deep learning has made significant strides but remains susceptible to adversarial attacks, undermining its reliability. Most existing research addresses these threats after attacks happen. A growing direction explores preemptive defenses like mitigating adversarial threats proactively, offering improved robustness but at cost of efficiency and transferability. This paper introduces Fast Preemption, a novel preemptive adversarial defense that overcomes efficiency challenges while achieving state-of-the-art robustness and transferability, requiring no prior knowledge of attacks and target models. We propose a forward-backward cascade learning algorithm, which generates protective perturbations by combining forward propagation for rapid convergence with iterative backward propagation to prevent overfitting. Executing in just three iterations, Fast Preemption outperforms existing training-time, test-time, and preemptive defenses. Additionally, we introduce an adaptive reversion attack to assess the reliability of preemptive defenses, demonstrating that our approach remains secure in realistic attack scenarios.
- Abstract(参考訳): ディープ・ラーニングは大きな進歩を遂げてきたが、敵の攻撃を受けやすいままであり、信頼性を損なう。
既存の研究のほとんどは、攻撃後のこれらの脅威に対処している。
成長する方向は、敵の脅威を積極的に緩和するなど、先制防衛を積極的に探求し、堅牢性は向上するが、効率性と伝達性は向上する。
本稿では,攻撃や目標モデルの事前知識を必要とせず,最先端の堅牢性と伝達性を実現しつつ,効率上の課題を克服する,新たな先制攻撃防御であるFast Preemptionを紹介する。
高速収束のための前方伝播と反復的後方伝播を組み合わせて保護摂動を生成する前向きカスケード学習アルゴリズムを提案する。
わずか3イテレーションで実行することで、Fast Preemptionは既存のトレーニング時間、テスト時間、プリエンプティブディフェンスを上回っます。
さらに,プリエンプティブ・ディフェンスの信頼性を評価するためのアダプティブ・リバージョン・アタックを導入し,現実的な攻撃シナリオにおいて,我々のアプローチが安全であることを実証した。
関連論文リスト
- Gradient-Free Adversarial Purification with Diffusion Models [10.917491144598575]
敵の訓練と敵の浄化は、敵の攻撃に対するモデルの堅牢性を高める効果的な方法である。
本稿では,摂動と非拘束の両敵攻撃を効果的かつ効果的に防御する手法を提案する。
論文 参考訳(メタデータ) (2025-01-23T02:34:14Z) - Test-time Adversarial Defense with Opposite Adversarial Path and High Attack Time Cost [5.197034517903854]
対向対向経路(OAP)に沿った拡散に基づく新しい対向防御法について検討する。
我々は、敵攻撃に抵抗するために、事前訓練されたモデルに差し込むことができる浄化器を提案する。
論文 参考訳(メタデータ) (2024-10-22T08:32:17Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Continual Adversarial Defense [37.37029638528458]
防衛システムは、敵データをオンラインで継続的に収集し、迅速に自己改善する。
新たな攻撃への継続的な適応は、壊滅的な忘れ、少数ショット適応、メモリ効率適応、クリーンデータと逆データの両方において高い精度である。
特にCADは、前回の攻撃に対して優れた性能を維持しつつ、最小限の予算と低コストの防衛失敗に迅速に適応することができる。
論文 参考訳(メタデータ) (2023-12-15T01:38:26Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。