論文の概要: Adversarial Surrogate Risk Bounds for Binary Classification
- arxiv url: http://arxiv.org/abs/2506.09348v1
- Date: Wed, 11 Jun 2025 02:57:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.258325
- Title: Adversarial Surrogate Risk Bounds for Binary Classification
- Title(参考訳): バイナリ分類のための逆サロゲートリスク境界
- Authors: Natalie S. Frank,
- Abstract要約: 逆行訓練は、堅牢な分類器を訓練する最も一般的な手法の1つである。
本稿では収束率を定量化する代理リスク境界を提供する。
我々は、標準(非逆)学習環境における分布依存的な代理的リスク境界を導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A central concern in classification is the vulnerability of machine learning models to adversarial attacks. Adversarial training is one of the most popular techniques for training robust classifiers, which involves minimizing an adversarial surrogate risk. Recent work characterized when a minimizing sequence of an adversarial surrogate risk is also a minimizing sequence of the adversarial classification risk for binary classification -- a property known as adversarial consistency. However, these results do not address the rate at which the adversarial classification risk converges to its optimal value for such a sequence of functions that minimize the adversarial surrogate. This paper provides surrogate risk bounds that quantify that convergence rate. Additionally, we derive distribution-dependent surrogate risk bounds in the standard (non-adversarial) learning setting, that may be of independent interest.
- Abstract(参考訳): 分類における中心的な関心事は、敵対的攻撃に対する機械学習モデルの脆弱性である。
敵対的訓練は、敵対的代理リスクを最小限に抑えることを含む、堅牢な分類器を訓練する最も一般的な手法の1つである。
最近の研究は、逆代理リスクの最小化シーケンスが二項分類の逆分類リスクの最小化シーケンスであるときに特徴付けられる。
しかしながら、これらの結果は、敵の分類リスクが、敵の代理を最小化する関数列に対して、その最適値に収束する速度に対処しない。
本稿では,収束率を定量化するための代理的リスクバウンダリを提供する。
さらに,標準(非逆)学習環境における分布依存的な代理的リスク境界を導出する。
関連論文リスト
- Adversarial Consistency and the Uniqueness of the Adversarial Bayes Classifier [0.0]
逆代理リスクの最小化は、堅牢な分類器を学習するための一般的な手法である。
妥当な分布仮定の下では、凸代理損失は逆学習において統計的に整合であることが示され、逆ベイズ分類器は特異性の特定の概念を満たす。
論文 参考訳(メタデータ) (2024-04-26T12:16:08Z) - Generalization Properties of Adversarial Training for $\ell_0$-Bounded
Adversarial Attacks [47.22918498465056]
本稿では,ニューラルネットワークの重要なクラスに対する対人訓練の性能を理論的に特徴付けることを目的とする。
この設定での一般化の導出には2つの大きな課題がある。
論文 参考訳(メタデータ) (2024-02-05T22:57:33Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - Safe Deployment for Counterfactual Learning to Rank with Exposure-Based
Risk Minimization [63.93275508300137]
本稿では,安全な配置を理論的に保証する新たなリスク認識型対実学習ランク法を提案する。
提案手法の有効性を実験的に検証し,データが少ない場合の動作不良の早期回避に有効であることを示す。
論文 参考訳(メタデータ) (2023-04-26T15:54:23Z) - The Consistency of Adversarial Training for Binary Classification [12.208787849155048]
敵の訓練は、上限に基づく代理リスクを最小化する。
双対分類におけるルベーグ測度に対して絶対連続的な分布に対して、どの超極基底が整合であるかを特徴付ける。
論文 参考訳(メタデータ) (2022-06-18T03:37:43Z) - Calibrated Surrogate Losses for Adversarially Robust Classification [92.37268323142307]
線形モデルに制限された場合の逆0-1損失に対して凸代理損失は考慮されないことを示す。
また,Massartの雑音条件を満たす場合,対向条件下では凸損失も校正可能であることを示す。
論文 参考訳(メタデータ) (2020-05-28T02:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。