論文の概要: RegMix: Adversarial Mutual and Generalization Regularization for Enhancing DNN Robustness
- arxiv url: http://arxiv.org/abs/2510.05317v1
- Date: Mon, 06 Oct 2025 19:30:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.958283
- Title: RegMix: Adversarial Mutual and Generalization Regularization for Enhancing DNN Robustness
- Title(参考訳): RegMix: DNNロバストネス向上のための対向的相互および一般化正規化
- Authors: Zhenyu Liu, Varun Ojha,
- Abstract要約: 敵の訓練は敵の攻撃に対する最も効果的な防御である。
逆行訓練において最も広く用いられている損失関数は、その正規化目的としてクロスエントロピーと平均二乗誤差(MSE)である。
敵の訓練に適した2つの新しい正規化戦略を提案する。
- 参考スコア(独自算出の注目度): 4.211285969747414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial training is the most effective defense against adversarial attacks. The effectiveness of the adversarial attacks has been on the design of its loss function and regularization term. The most widely used loss function in adversarial training is cross-entropy and mean squared error (MSE) as its regularization objective. However, MSE enforces overly uniform optimization between two output distributions during training, which limits its robustness in adversarial training scenarios. To address this issue, we revisit the idea of mutual learning (originally designed for knowledge distillation) and propose two novel regularization strategies tailored for adversarial training: (i) weighted adversarial mutual regularization and (ii) adversarial generalization regularization. In the former, we formulate a decomposed adversarial mutual Kullback-Leibler divergence (KL-divergence) loss, which allows flexible control over the optimization process by assigning unequal weights to the main and auxiliary objectives. In the latter, we introduce an additional clean target distribution into the adversarial training objective, improving generalization and enhancing model robustness. Extensive experiments demonstrate that our proposed methods significantly improve adversarial robustness compared to existing regularization-based approaches.
- Abstract(参考訳): 敵の訓練は敵の攻撃に対する最も効果的な防御である。
敵攻撃の有効性は、損失関数と正規化項の設計にかかっている。
逆行訓練において最も広く用いられている損失関数は、その正規化目的としてクロスエントロピーと平均二乗誤差(MSE)である。
しかし、MSEは、訓練中の2つの出力分布間の過度に均一な最適化を強制し、敵の訓練シナリオにおける堅牢性を制限する。
この問題に対処するため、我々は相互学習(当初は知識蒸留のために設計された)の考え方を再考し、敵の訓練に適した2つの新しい正規化戦略を提案する。
一 敵の相互正則化及び相互正則化の重み付け
(二)逆一般化正則化
前者では、不平等な重みを主目的と補助目的に割り当てることで最適化過程を柔軟に制御できる、逆相のクルバック・リーブラ分散(KL-diversergence)損失を定式化する。
後者では、敵の訓練目標に新たなクリーンターゲット分布を導入し、一般化を改善し、モデルロバスト性を高める。
大規模な実験により,提案手法は既存の正規化手法と比較して,対向ロバスト性を大幅に向上することが示された。
関連論文リスト
- Improving Domain Generalization in Self-supervised Monocular Depth Estimation via Stabilized Adversarial Training [61.35809887986553]
我々は、SCAT(stabilized Conflict-Optimization Adversarial Training)という、汎用的な敵訓練フレームワークを提案する。
SCATは、安定性と一般化のバランスを達成するために、敵データ拡張を自己教師付きMDE手法に統合する。
5つのベンチマーク実験により、SCATは最先端の性能を達成でき、既存の自己監督型MDE法の一般化能力を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2024-11-04T15:06:57Z) - Rethinking Invariance Regularization in Adversarial Training to Improve Robustness-Accuracy Trade-off [11.836020809561383]
敵の訓練は、しばしばロバストネスのトレードオフに悩まされ、高いロバストネスを達成することは精度の犠牲となる。
非対称表現正規化逆行訓練(ARAT)を提案する。
ARATは、非対称な不斉損失と停止段階の演算と予測器を組み込み、勾配の衝突を回避し、混合分布問題を解決するためにスプリット・バッチノーム(BN)構造を組み込む。
論文 参考訳(メタデータ) (2024-02-22T15:53:46Z) - Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - Boosting Adversarial Robustness From The Perspective of Effective Margin
Regularization [58.641705224371876]
ディープニューラルネットワーク(DNN)の敵対的脆弱性は、ここ数年で積極的に研究されている。
本稿では,クロスエントロピー損失のスケール変動特性について検討する。
提案した有効マージン正則化(EMR)は,大きな有効マージンを学習し,標準トレーニングと対向トレーニングの両方において対向的ロバスト性を高めることを示す。
論文 参考訳(メタデータ) (2022-10-11T03:16:56Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Robust Reinforcement Learning using Adversarial Populations [118.73193330231163]
強化学習(Reinforcement Learning, RL)は、コントローラ設計に有効なツールであるが、堅牢性の問題に対処できる。
一つの逆数を使うことは、逆数の標準的なパラメトリゼーションの下での動的変動に一貫して堅牢性をもたらすわけではないことを示す。
本稿では,ロバスト RL の定式化に対する人口ベース増進法を提案する。
論文 参考訳(メタデータ) (2020-08-04T20:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。