論文の概要: The Power of Many: Synergistic Unification of Diverse Augmentations for Efficient Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2508.03213v1
- Date: Tue, 05 Aug 2025 08:42:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.867996
- Title: The Power of Many: Synergistic Unification of Diverse Augmentations for Efficient Adversarial Robustness
- Title(参考訳): 多の力:効率の良い対向ロバスト性のための多元拡張の相乗的統一
- Authors: Wang Yu-Hang, Shiwei Li, Jianxiang Liao, Li Bohan, Jian Liu, Wenfei Yin,
- Abstract要約: 敵対的摂動はディープラーニングモデルに重大な脅威をもたらす。
対人訓練(AT)は、高い計算コストと標準性能の低下という課題に直面している。
本稿では,そのプラグ・アンド・プレイ特性とトレーニング効率を特徴とするユニバーサル・アドバーサリアル・オーグメンタ(UAA)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.471349369877151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial perturbations pose a significant threat to deep learning models. Adversarial Training (AT), the predominant defense method, faces challenges of high computational costs and a degradation in standard performance. While data augmentation offers an alternative path, existing techniques either yield limited robustness gains or incur substantial training overhead. Therefore, developing a defense mechanism that is both highly efficient and strongly robust is of paramount importance.In this work, we first conduct a systematic analysis of existing augmentation techniques, revealing that the synergy among diverse strategies -- rather than any single method -- is crucial for enhancing robustness. Based on this insight, we propose the Universal Adversarial Augmenter (UAA) framework, which is characterized by its plug-and-play nature and training efficiency. UAA decouples the expensive perturbation generation process from model training by pre-computing a universal transformation offline, which is then used to efficiently generate unique adversarial perturbations for each sample during training.Extensive experiments conducted on multiple benchmarks validate the effectiveness of UAA. The results demonstrate that UAA establishes a new state-of-the-art (SOTA) for data-augmentation-based adversarial defense strategies , without requiring the online generation of adversarial examples during training. This framework provides a practical and efficient pathway for building robust models,Our code is available in the supplementary materials.
- Abstract(参考訳): 敵対的摂動はディープラーニングモデルに重大な脅威をもたらす。
対戦訓練(AT: Adversarial Training)は、高い計算コストと標準性能の低下という課題に直面している。
データ拡張は代替のパスを提供するが、既存のテクニックは、限られた堅牢性を得るか、相当なトレーニングオーバーヘッドを発生させる。
したがって、高度に効率的かつ強靭な防衛機構の開発が最重要であり、本研究では、まず既存の強化手法を体系的に分析し、単一手法ではなく多様な戦略間の相乗効果が強靭性を高める上で重要であることを明らかにした。
この知見に基づいて,プラグ・アンド・プレイ特性とトレーニング効率を特徴とするユニバーサル・アドバーサリアル・オーグメンタ(UAA)フレームワークを提案する。
UAAは、モデルトレーニングから高価な摂動生成プロセスを切り離し、ユニバーサルトランスフォーメーションをオフラインにプリコンピュートし、トレーニング中に各サンプルに対して独自の逆摂動を効率よく生成する。
以上の結果から,UAAはトレーニング中の敵のオンライン生成を必要とせず,データ強化ベースの敵防衛戦略のための新たな最先端(SOTA)を確立していることが明らかとなった。
このフレームワークは、ロバストなモデルを構築するための実用的で効率的な経路を提供する。
関連論文リスト
- Evolution-based Region Adversarial Prompt Learning for Robustness Enhancement in Vision-Language Models [52.8949080772873]
本稿では,ER-APTと呼ばれる進化型領域逆アプティブチューニング手法を提案する。
各トレーニングイテレーションでは、まず従来の勾配法を用いてAEを生成する。
次に、AEsを最適化するために、選択、突然変異、交差を含む遺伝的進化機構を適用する。
最終進化型AEは、従来の単点対向的な高速チューニングの代わりに、地域ベースの対向最適化を実現するために用いられる。
論文 参考訳(メタデータ) (2025-03-17T07:08:47Z) - Improving the Transferability of Adversarial Examples by Inverse Knowledge Distillation [15.362394334872077]
逆知識蒸留(Inverse Knowledge Distillation, IKD)は, 対向移動性を効果的に向上するように設計されている。
IKDは勾配に基づく攻撃手法を統合し、攻撃勾配の多様性を促進し、特定のモデルアーキテクチャへの過度な適合を緩和する。
ImageNetデータセットの実験は、我々のアプローチの有効性を検証する。
論文 参考訳(メタデータ) (2025-02-24T09:35:30Z) - Sustainable Self-evolution Adversarial Training [51.25767996364584]
対戦型防衛モデルのための持続的自己進化支援訓練(SSEAT)フレームワークを提案する。
本研究は,様々な種類の対角的事例から学習を実現するために,連続的な対向防衛パイプラインを導入する。
また,より多様で重要な再学習データを選択するために,逆データ再生モジュールを提案する。
論文 参考訳(メタデータ) (2024-12-03T08:41:11Z) - ExAL: An Exploration Enhanced Adversarial Learning Algorithm [0.0]
探索強化適応学習アルゴリズム(ExAL)を提案する。
ExALは探索駆動機構を統合し、モデル決定境界への影響を最大化する摂動を発見する。
MNISTの手書きディジットとBlended Malwareデータセット上でのExALの性能を評価する。
論文 参考訳(メタデータ) (2024-11-24T15:37:29Z) - MMAD-Purify: A Precision-Optimized Framework for Efficient and Scalable Multi-Modal Attacks [21.227398434694724]
我々は,攻撃フレームワークの有効性を高めるために,精度最適化ノイズ予測器を組み込んだ革新的なフレームワークを導入する。
当社のフレームワークは,マルチモーダル攻撃に対する最先端のソリューションを提供し,レイテンシの低減を実現している。
本研究の枠組みは, 浄化防御に対する優れた伝達性と堅牢性を実現することを実証する。
論文 参考訳(メタデータ) (2024-10-17T23:52:39Z) - Robust Image Classification: Defensive Strategies against FGSM and PGD Adversarial Attacks [0.0]
敵対的攻撃は、画像分類におけるディープラーニングモデルの堅牢性に重大な脅威をもたらす。
本稿では,ニューラルネットワークのレジリエンスを高めるために,これらの攻撃に対する防御機構を探索し,洗練する。
論文 参考訳(メタデータ) (2024-08-20T02:00:02Z) - AI Safety in Practice: Enhancing Adversarial Robustness in Multimodal Image Captioning [0.0]
視覚データとテキストデータを組み合わせたマルチモーダル機械学習モデルは、ますます重要なアプリケーションにデプロイされている。
本稿では,マルチモーダル画像キャプションモデルの敵攻撃に対する堅牢性を高めるための効果的な戦略を提案する。
論文 参考訳(メタデータ) (2024-07-30T20:28:31Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - AROID: Improving Adversarial Robustness Through Online Instance-Wise Data Augmentation [6.625868719336385]
対戦訓練(英語: Adversarial Training、AT)は、敵の例に対する効果的な防御である。
データ拡張(DA)は、AT向けに適切に設計され最適化された場合、ロバストなオーバーフィッティングの軽減に有効であることが示されている。
本研究は、ATの堅牢な一般化を改善するために、オンライン、例えばDAポリシーを自動的に学習する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-06-12T15:54:52Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - ROPUST: Improving Robustness through Fine-tuning with Photonic
Processors and Synthetic Gradients [65.52888259961803]
ROPUSTは、頑健な事前学習モデルを活用し、その堅牢性を高めるためのシンプルで効率的な手法である。
我々は,ロバストベンチの4つの攻撃に対して,9つの異なるモデルを用いて実験を行った。
ROPUSTは,最先端の位相探索技術でも有効であることを示す。
論文 参考訳(メタデータ) (2021-07-06T12:03:36Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。