論文の概要: DRIFT: Divergent Response in Filtered Transformations for Robust Adversarial Defense
- arxiv url: http://arxiv.org/abs/2509.24359v1
- Date: Mon, 29 Sep 2025 06:57:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.802347
- Title: DRIFT: Divergent Response in Filtered Transformations for Robust Adversarial Defense
- Title(参考訳): DRIFT:ロバスト防御のためのフィルタ変換における発散応答
- Authors: Amira Guesmi, Muhammad Shafique,
- Abstract要約: グラデーション・コンセンサスは 逆転性の主要な要因です
我々は、勾配のコンセンサスを積極的に破壊するように訓練された軽量で学習可能なフィルタの集合である textbfDRIFT (Divergent Response in Filtered Transformations) を導入する。
DRIFTは、無視可能なランタイムとメモリコストの改善を提供し、敵防衛の実用的で一般化可能な原則として勾配分散を確立している。
- 参考スコア(独自算出の注目度): 3.8409038268900404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks remain highly vulnerable to adversarial examples, and most defenses collapse once gradients can be reliably estimated. We identify \emph{gradient consensus} -- the tendency of randomized transformations to yield aligned gradients -- as a key driver of adversarial transferability. Attackers exploit this consensus to construct perturbations that remain effective across transformations. We introduce \textbf{DRIFT} (Divergent Response in Filtered Transformations), a stochastic ensemble of lightweight, learnable filters trained to actively disrupt gradient consensus. Unlike prior randomized defenses that rely on gradient masking, DRIFT enforces \emph{gradient dissonance} by maximizing divergence in Jacobian- and logit-space responses while preserving natural predictions. Our contributions are threefold: (i) we formalize gradient consensus and provide a theoretical analysis linking consensus to transferability; (ii) we propose a consensus-divergence training strategy combining prediction consistency, Jacobian separation, logit-space separation, and adversarial robustness; and (iii) we show that DRIFT achieves substantial robustness gains on ImageNet across CNNs and Vision Transformers, outperforming state-of-the-art preprocessing, adversarial training, and diffusion-based defenses under adaptive white-box, transfer-based, and gradient-free attacks. DRIFT delivers these improvements with negligible runtime and memory cost, establishing gradient divergence as a practical and generalizable principle for adversarial defense.
- Abstract(参考訳): ディープニューラルネットワークは敵の例に対して非常に脆弱であり、グラデーションを確実に見積もることができれば、ほとんどの防衛は崩壊する。
ランダム化変換の傾向である「emph{gradient consensus}」を、対向移動可能性の鍵となる要因として同定する。
攻撃者は、このコンセンサスを利用して、トランスフォーメーション全体で有効である摂動を構築します。
本稿では,勾配のコンセンサスを積極的に破壊するために訓練された,軽量で学習可能なフィルタの確率的アンサンブルである「textbf{DRIFT} (Divergent Response in Filtered Transformations)」を紹介する。
勾配マスキングに依存する以前のランダム化された防御とは異なり、DRIFTは自然な予測を保ちながらジャコビアン空間とロジット空間の応答の発散を最大化することで 'emph{gradient dissonance} を強制する。
私たちの貢献は3倍です。
一 グラデーションコンセンサスを定式化し、コンセンサスとトランスファービリティをリンクする理論的分析を提供する。
(II)予測整合性,ジャコビアン分離,ロジット空間分離,対向ロバスト性を組み合わせたコンセンサス分割学習戦略を提案する。
3) DRIFT は,CNN や Vision Transformer にまたがるImageNet において,適応型ホワイトボックス,トランスファーベース,グラデーションフリーの攻撃下での,最先端の事前処理,対角訓練,拡散型防御に優れるロバスト性向上を実現していることを示す。
DRIFTは、これらの改善を無視可能なランタイムとメモリコストで実現し、敵防衛の実用的で一般化可能な原則として勾配分散を確立する。
関連論文リスト
- Curriculum-Guided Antifragile Reinforcement Learning for Secure UAV Deconfliction under Observation-Space Attacks [6.367978467906828]
強化学習政策は、観測空間における敵の攻撃に対して脆弱である。
本稿では,段階的対向摂動のカリキュラムに適応するために設計された反フレジブルなRLフレームワークを提案する。
その結果, 反フランジ政策は標準およびロバストなRLベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2025-06-26T10:10:41Z) - Improving Black-Box Generative Attacks via Generator Semantic Consistency [51.470649503929344]
ジェネレーティブアタックは テスト時に 1つのフォワードパスで 敵の例を生成する
初期ジェネレータの中間機能をEMA教師に整列させることで意味的整合性を実現する。
我々のアプローチは、ブラックボックス転送の一貫性を保ちながら、既存のジェネレーティブアタックにシームレスに統合することができる。
論文 参考訳(メタデータ) (2025-06-23T02:35:09Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Adaptive Gradient Clipping for Robust Federated Learning [8.268485501864939]
本稿では,適応型クリッピング戦略である適応ロバストクリッピング(ARC)を提案し,入力勾配に基づいて動的にクリッピング閾値を調整する。
ARCは、特に高度に異質で対向的な設定において、ロバスト性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-05-23T11:00:31Z) - Improved and Interpretable Defense to Transferred Adversarial Examples
by Jacobian Norm with Selective Input Gradient Regularization [31.516568778193157]
ディープニューラルネットワーク(DNN)の堅牢性を改善するために、AT(Adversarial Training)がよく用いられる。
本研究では,ジャコビアンノルムと選択的入力勾配正規化(J-SIGR)に基づくアプローチを提案する。
実験により、提案したJ-SIGRは、転送された敵攻撃に対するロバスト性を向上し、ニューラルネットワークからの予測が容易に解釈できることが示されている。
論文 参考訳(メタデータ) (2022-07-09T01:06:41Z) - An Intermediate-level Attack Framework on The Basis of Linear Regression [89.85593878754571]
本論文はECCVにおいて,いくつかのベースライン対向例の転送性を改善するため,中間レベルアタック(中間レベルアタック)を提案し,本研究を実質的に拡張するものである。
我々は,中間レベルの相違点(対角的特徴と良性的特徴)から,対角的例の分類的損失への直接的な線形写像の確立を提唱する。
1) 様々な線形回帰モデルがマッピングを確立するために考慮可能であること,2) 最終的に得られた中間レベル差の大きさが逆転率と線形に相関していること,3) ベースラインアタックを複数回実行することで,さらなる性能向上が達成できること,などが示される。
論文 参考訳(メタデータ) (2022-03-21T03:54:53Z) - Defensive Tensorization [113.96183766922393]
本稿では,ネットワークの遅延高次分解を利用した対角防御手法であるテンソル防御手法を提案する。
我々は,標準画像分類ベンチマークにおけるアプローチの有効性を実証的に実証した。
我々は,音声タスクとバイナリネットワークを考慮し,ドメイン間のアプローチと低精度アーキテクチャの汎用性を検証した。
論文 参考訳(メタデータ) (2021-10-26T17:00:16Z) - Improving Robustness of Adversarial Attacks Using an Affine-Invariant
Gradient Estimator [15.863109283735625]
敵対的な例は、知覚不能な摂動で応答を著しく変化させることで、ディープニューラルネットワーク(DNN)を欺くことができる。
既存の敵の例のほとんどは、結果の例にアフィン変換を適用すると、悪意のある機能を維持できない。
本稿では,アフィン変換の分布に対して頑健な逆数例を一貫して構築できるアフィン不変逆数攻撃を提案する。
論文 参考訳(メタデータ) (2021-09-13T09:43:17Z) - Robustness-via-Synthesis: Robust Training with Generative Adversarial
Perturbations [10.140147080535224]
先制攻撃による敵の訓練は、今日の敵の摂動に対する最も効果的な防御の1つである。
本研究では, 逆方向の摂動を自動的にランダムなベクトルから生成ネットワークを用いて合成する頑健な学習アルゴリズムを提案する。
実験結果から, 提案手法は様々な勾配に基づく, 生成的ロバストトレーニング手法により, 同等のロバスト性が得られることがわかった。
論文 参考訳(メタデータ) (2021-08-22T13:15:24Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。