論文の概要: Stability and Generalization of Adversarial Diffusion Training
- arxiv url: http://arxiv.org/abs/2509.19234v1
- Date: Tue, 23 Sep 2025 16:55:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.964888
- Title: Stability and Generalization of Adversarial Diffusion Training
- Title(参考訳): 逆拡散訓練の安定性と一般化
- Authors: Hesam Hosseini, Ying Cao, Ali H. Sayed,
- Abstract要約: 本研究では,凸損失の拡散戦略の下での対向学習の安定性に基づく一般化解析を提案する。
一般化誤差は、逆方向の強度とトレーニングステップの数の両方で増大することを示す境界を導出する。
- 参考スコア(独自算出の注目度): 31.63120879926305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic stability is an established tool for analyzing generalization. While adversarial training enhances model robustness, it often suffers from robust overfitting and an enlarged generalization gap. Although recent work has established the convergence of adversarial training in decentralized networks, its generalization properties remain unexplored. This work presents a stability-based generalization analysis of adversarial training under the diffusion strategy for convex losses. We derive a bound showing that the generalization error grows with both the adversarial perturbation strength and the number of training steps, a finding consistent with single-agent case but novel for decentralized settings. Numerical experiments on logistic regression validate these theoretical predictions.
- Abstract(参考訳): アルゴリズム安定性は一般化を解析するための確立されたツールである。
逆行訓練はモデルの堅牢性を高めるが、しばしば強固なオーバーフィッティングと拡張された一般化ギャップに悩まされる。
最近の研究は、分散化されたネットワークにおける敵の訓練の収束を確立しているが、その一般化特性は未解明のままである。
本研究では,凸損失の拡散戦略の下での対向学習の安定性に基づく一般化解析を提案する。
一般化誤差は, 対向的摂動強度とトレーニングステップ数の両方で増大し, 単一エージェントの場合と一致しているが, 分散化された設定では新規であることを示す。
ロジスティック回帰に関する数値実験は、これらの理論予測を検証する。
関連論文リスト
- Generalizing to any diverse distribution: uniformity, gentle finetuning and rebalancing [55.791818510796645]
我々は,訓練データから大きく逸脱した場合でも,様々なテスト分布によく適応するモデルを開発することを目的としている。
ドメイン適応、ドメイン一般化、ロバスト最適化といった様々なアプローチは、アウト・オブ・ディストリビューションの課題に対処しようと試みている。
我々は、既知のドメイン内の十分に多様なテスト分布にまたがる最悪のケースエラーを考慮することで、より保守的な視点を採用する。
論文 参考訳(メタデータ) (2024-10-08T12:26:48Z) - Out-of-distribution robustness for multivariate analysis via causal regularisation [4.487663958743944]
本稿では,分散シフトに対するロバスト性を確保するために,因果性に根ざした正規化戦略を提案する。
アンカー回帰フレームワークに基づいて、古典アルゴリズムの損失関数に単純な正規化項を組み込む方法を示す。
本フレームワークでは,損失関数と正規化戦略との整合性を効率よく検証することができる。
論文 参考訳(メタデータ) (2024-03-04T09:21:10Z) - Data-Dependent Stability Analysis of Adversarial Training [18.686469222136854]
敵の訓練は敵の攻撃に対する最も広く使われている防御である。
以前のトレーニングでは、データ配布情報が含まれていなかった。
以上の結果から,データ中毒の一般化による分布変化が示唆された。
論文 参考訳(メタデータ) (2024-01-06T08:18:04Z) - On robust overfitting: adversarial training induced distribution matters [32.501773057885735]
敵の訓練は、修正された損失関数を持つ標準的な訓練と見なすことができる。
しかし、その一般化誤差は標準損失下での標準訓練よりもはるかに大きいように見える。
この現象は頑丈なオーバーフィッティング(英語版)として知られ、研究の注目を集め、主に謎として残っている。
論文 参考訳(メタデータ) (2023-11-28T05:11:53Z) - Stability and Generalization of the Decentralized Stochastic Gradient
Descent Ascent Algorithm [80.94861441583275]
本稿では,分散勾配勾配(D-SGDA)アルゴリズムの一般化境界の複雑さについて検討する。
本研究は,D-SGDAの一般化における各因子の影響を解析した。
また、最適凸凹設定を得るために一般化とバランスをとる。
論文 参考訳(メタデータ) (2023-10-31T11:27:01Z) - Decentralized Adversarial Training over Graphs [44.03711922549992]
近年、敵攻撃に対する機械学習モデルの脆弱性が注目されている。
マルチエージェントシステムのための分散逆数フレームワークを開発する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - Modeling Uncertain Feature Representation for Domain Generalization [49.129544670700525]
提案手法は,複数の視覚タスクにおけるネットワーク一般化能力を常に改善することを示す。
我々の手法は単純だが有効であり、トレーニング可能なパラメータや損失制約を伴わずにネットワークに容易に統合できる。
論文 参考訳(メタデータ) (2023-01-16T14:25:02Z) - On the generalization of learning algorithms that do not converge [54.122745736433856]
ディープラーニングの一般化解析は、訓練が一定の点に収束すると仮定するのが一般的である。
最近の結果は、実際には勾配降下に最適化されたディープニューラルネットワークの重みは、しばしば無限に振動することを示している。
論文 参考訳(メタデータ) (2022-08-16T21:22:34Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。