論文の概要: Robustness Feature Adapter for Efficient Adversarial Training
- arxiv url: http://arxiv.org/abs/2508.17680v1
- Date: Mon, 25 Aug 2025 05:23:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.646448
- Title: Robustness Feature Adapter for Efficient Adversarial Training
- Title(参考訳): 効率的な対人訓練のためのロバスト性特徴適応器
- Authors: Quanwei Wu, Jun Guo, Wei Wang, Yi Wang,
- Abstract要約: 投射勾配降下を伴う対人訓練(AT)は、対人攻撃下でのモデルロバスト性を改善する最も一般的な方法である。
ATが大きなバックボーンモデルに適用されると、計算オーバーヘッドは著しく大きくなる。
本稿では,機能空間内での効率的なATを実現するためのアダプタベースのアプローチを提案する。
- 参考スコア(独自算出の注目度): 6.88216456289286
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Adversarial training (AT) with projected gradient descent is the most popular method to improve model robustness under adversarial attacks. However, computational overheads become prohibitively large when AT is applied to large backbone models. AT is also known to have the issue of robust overfitting. This paper contributes to solving both problems simultaneously towards building more trustworthy foundation models. In particular, we propose a new adapter-based approach for efficient AT directly in the feature space. We show that the proposed adapter-based approach can improve the inner-loop convergence quality by eliminating robust overfitting. As a result, it significantly increases computational efficiency and improves model accuracy by generalizing adversarial robustness to unseen attacks. We demonstrate the effectiveness of the new adapter-based approach in different backbone architectures and in AT at scale.
- Abstract(参考訳): 投射勾配降下を伴う対人訓練(AT)は、対人攻撃下でのモデルロバスト性を改善する最も一般的な方法である。
しかし、ATが大きなバックボーンモデルに適用されると、計算オーバーヘッドは著しく大きくなる。
ATは、堅牢なオーバーフィッティングの問題でも知られている。
本稿では, 両問題を同時に解決し, 信頼性の高い基礎モデルの構築に寄与する。
特に,機能空間において,効率的なATを実現するためのアダプタベースの新しいアプローチを提案する。
提案手法は,ロバストなオーバーフィッティングを排除し,インナーループコンバージェンスの品質を向上させることができることを示す。
その結果、計算効率を大幅に向上させ、未知の攻撃に対する敵のロバスト性を一般化することによりモデル精度を向上させる。
異なるバックボーンアーキテクチャと大規模ATにおける新しいアダプタベースのアプローチの有効性を実証する。
関連論文リスト
- Adaptive Batch Normalization Networks for Adversarial Robustness [33.14617293166724]
敵防衛訓練(Adversarial Training、AT)は、現代の敵防衛の標準的基盤である。
テスト時間領域適応の最近の進歩に触発された適応バッチ正規化ネットワーク(ABNN)を提案する。
ABNNは、デジタルおよび物理的に実現可能な攻撃に対する敵の堅牢性を一貫して改善する。
論文 参考訳(メタデータ) (2024-05-20T00:58:53Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - AROID: Improving Adversarial Robustness Through Online Instance-Wise Data Augmentation [6.625868719336385]
対戦訓練(英語: Adversarial Training、AT)は、敵の例に対する効果的な防御である。
データ拡張(DA)は、AT向けに適切に設計され最適化された場合、ロバストなオーバーフィッティングの軽減に有効であることが示されている。
本研究は、ATの堅牢な一般化を改善するために、オンライン、例えばDAポリシーを自動的に学習する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-06-12T15:54:52Z) - A2: Efficient Automated Attacker for Boosting Adversarial Training [15.37987350655307]
本稿では,A2と呼ばれる自動攻撃を効果的に行うことで,適応訓練(AT)の堅牢性を高めることを提案する。
A2は低コストで強い摂動を発生させ、異なる攻撃に対する様々なAT手法の堅牢性を確実に改善する。
論文 参考訳(メタデータ) (2022-10-07T13:28:00Z) - Fast Adversarial Training with Adaptive Step Size [62.37203478589929]
トレーニングインスタンスの観点から,この現象を考察する。
適応ステップサイズ(ATAS)を用いた逆学習法を提案する。
ATASは、その勾配ノルムに逆比例するインスタンス順応的なステップサイズを学習する。
論文 参考訳(メタデータ) (2022-06-06T08:20:07Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Exploring Model Robustness with Adaptive Networks and Improved
Adversarial Training [56.82000424924979]
入力サンプルに条件付きでネットワークを適応させる条件正規化モジュールを提案する。
適応的ネットワークは、一度逆さまに訓練された場合、クリーンな検証精度と堅牢性の両方において、適応的でないネットワークよりも優れています。
論文 参考訳(メタデータ) (2020-05-30T23:23:56Z) - Improved Adversarial Training via Learned Optimizer [101.38877975769198]
対戦型トレーニングモデルの堅牢性を改善するための枠組みを提案する。
共学習のパラメータモデルの重み付けにより、提案するフレームワークは、更新方向に対するロバスト性とステップの適応性を一貫して改善する。
論文 参考訳(メタデータ) (2020-04-25T20:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。