論文の概要: Dynamic Epsilon Scheduling: A Multi-Factor Adaptive Perturbation Budget for Adversarial Training
- arxiv url: http://arxiv.org/abs/2506.04263v1
- Date: Tue, 03 Jun 2025 04:18:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.312873
- Title: Dynamic Epsilon Scheduling: A Multi-Factor Adaptive Perturbation Budget for Adversarial Training
- Title(参考訳): 動的エプシロンスケジューリング:多要素適応摂動予算
- Authors: Alan Mitkiy, James Smith, Hana Satou, Hiroshi Tanaka, Emily Johnson, F Monkey,
- Abstract要約: 敵のトレーニングは、敵の例からニューラルネットワークを守るための最も効果的な戦略の1つである。
既存の敵の訓練アプローチは固定的な摂動予算に依存しており、堅牢性に特有な特性を考慮できない。
本研究では,動的Epsilon Scheduling(DES)を提案する。このフレームワークは,インスタンスごとの対向摂動予算を適応的に調整し,トレーニングインスタンス毎に調整する。
- 参考スコア(独自算出の注目度): 1.5558386948322986
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Adversarial training is among the most effective strategies for defending deep neural networks against adversarial examples. A key limitation of existing adversarial training approaches lies in their reliance on a fixed perturbation budget, which fails to account for instance-specific robustness characteristics. While prior works such as IAAT and MMA introduce instance-level adaptations, they often rely on heuristic or static approximations of data robustness. In this paper, we propose Dynamic Epsilon Scheduling (DES), a novel framework that adaptively adjusts the adversarial perturbation budget per instance and per training iteration. DES integrates three key factors: (1) the distance to the decision boundary approximated via gradient-based proxies, (2) prediction confidence derived from softmax entropy, and (3) model uncertainty estimated via Monte Carlo dropout. By combining these cues into a unified scheduling strategy, DES tailors the perturbation budget dynamically to guide more effective adversarial learning. Experimental results on CIFAR-10 and CIFAR-100 show that our method consistently improves both adversarial robustness and standard accuracy compared to fixed-epsilon baselines and prior adaptive methods. Moreover, we provide theoretical insights into the stability and convergence of our scheduling policy. This work opens a new avenue for instance-aware, data-driven adversarial training methods.
- Abstract(参考訳): 敵のトレーニングは、敵の例からディープニューラルネットワークを守るための最も効果的な戦略の1つである。
既存の敵の訓練アプローチの鍵となる制限は、固定された摂動予算に依存することにある。
IAATやMMAといった以前の研究はインスタンスレベルの適応を導入しているが、しばしばデータロバスト性のヒューリスティックあるいは静的な近似に依存している。
本稿では,インスタンスごとの対向摂動予算とトレーニングイテレーション毎に適応的に調整する新しいフレームワークであるDynamic Epsilon Scheduling (DES)を提案する。
DESは、(1)勾配ベースのプロキシによって近似された決定境界までの距離、(2)ソフトマックスエントロピーから導かれる予測信頼度、(3)モンテカルロのドロップアウトから推定されるモデル不確かさの3つの重要な要素を統合する。
これらのキューを統一的なスケジューリング戦略に組み合わせることで、DESは摂動予算を動的に調整し、より効果的な対人学習を導く。
CIFAR-10およびCIFAR-100の実験結果から,本手法は固定エポキシロンベースラインや先行適応法と比較して,対向ロバスト性と標準精度を常に向上することが示された。
さらに、スケジューリングポリシーの安定性と収束性に関する理論的洞察を提供する。
この作業は、インスタンスを意識した、データ駆動の敵のトレーニング方法の新たな道を開く。
関連論文リスト
- Adversarial Training in Low-Label Regimes with Margin-Based Interpolation [8.585017175426023]
敵の攻撃に抵抗する堅牢なニューラルネットワークモデルをトレーニングするための効果的なアプローチとして、敵のトレーニングが登場した。
本稿では,頑健性と自然な精度を両立させる,新たな半教師付き対人訓練手法を提案する。
論文 参考訳(メタデータ) (2024-11-27T00:35:13Z) - Dynamic Label Adversarial Training for Deep Learning Robustness Against Adversarial Attacks [11.389689242531327]
対人訓練は、モデルの堅牢性を高める最も効果的な方法の1つである。
従来のアプローチでは、主に敵の訓練に静的接地真理を用いるが、しばしば強固なオーバーフィッティングを引き起こす。
本稿では,動的ラベル対逆トレーニング(DYNAT)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-23T14:25:12Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Strength-Adaptive Adversarial Training [103.28849734224235]
対戦訓練(AT)は、敵データに対するネットワークの堅牢性を確実に改善することが証明されている。
所定の摂動予算を持つ現在のATは、堅牢なネットワークの学習に制限がある。
本稿では,これらの制限を克服するために,emphStrength-Adaptive Adversarial Training (SAAT)を提案する。
論文 参考訳(メタデータ) (2022-10-04T00:22:37Z) - Constant Random Perturbations Provide Adversarial Robustness with
Minimal Effect on Accuracy [41.84118016227271]
本稿では,ニューラルネットワークモデルの敵対的ロバスト性を改善するための攻撃非依存(非敵訓練)手法を提案する。
各トレーニング例の周辺に,その地区内のすべての入力に対してラベルが一定に維持されるような地区を作成することを提案する。
提案手法は,バニラ対人訓練と比較してロバスト性を高めつつ,他の防御に対する標準精度を向上させることが示唆された。
論文 参考訳(メタデータ) (2021-03-15T10:44:59Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。