論文の概要: Adversarial Surrogate Risk Bounds for Binary Classification
- arxiv url: http://arxiv.org/abs/2506.09348v1
- Date: Wed, 11 Jun 2025 02:57:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.258325
- Title: Adversarial Surrogate Risk Bounds for Binary Classification
- Title(参考訳): バイナリ分類のための逆サロゲートリスク境界
- Authors: Natalie S. Frank,
- Abstract要約: 逆行訓練は、堅牢な分類器を訓練する最も一般的な手法の1つである。
本稿では収束率を定量化する代理リスク境界を提供する。
我々は、標準(非逆)学習環境における分布依存的な代理的リスク境界を導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A central concern in classification is the vulnerability of machine learning models to adversarial attacks. Adversarial training is one of the most popular techniques for training robust classifiers, which involves minimizing an adversarial surrogate risk. Recent work characterized when a minimizing sequence of an adversarial surrogate risk is also a minimizing sequence of the adversarial classification risk for binary classification -- a property known as adversarial consistency. However, these results do not address the rate at which the adversarial classification risk converges to its optimal value for such a sequence of functions that minimize the adversarial surrogate. This paper provides surrogate risk bounds that quantify that convergence rate. Additionally, we derive distribution-dependent surrogate risk bounds in the standard (non-adversarial) learning setting, that may be of independent interest.
- Abstract(参考訳): 分類における中心的な関心事は、敵対的攻撃に対する機械学習モデルの脆弱性である。
敵対的訓練は、敵対的代理リスクを最小限に抑えることを含む、堅牢な分類器を訓練する最も一般的な手法の1つである。
最近の研究は、逆代理リスクの最小化シーケンスが二項分類の逆分類リスクの最小化シーケンスであるときに特徴付けられる。
しかしながら、これらの結果は、敵の分類リスクが、敵の代理を最小化する関数列に対して、その最適値に収束する速度に対処しない。
本稿では,収束率を定量化するための代理的リスクバウンダリを提供する。
さらに,標準(非逆)学習環境における分布依存的な代理的リスク境界を導出する。
関連論文リスト
- Adversarial Consistency and the Uniqueness of the Adversarial Bayes Classifier [0.0]
逆代理リスクの最小化は、堅牢な分類器を学習するための一般的な手法である。
妥当な分布仮定の下では、凸代理損失は逆学習において統計的に整合であることが示され、逆ベイズ分類器は特異性の特定の概念を満たす。
論文 参考訳(メタデータ) (2024-04-26T12:16:08Z) - Generalization Properties of Adversarial Training for $\ell_0$-Bounded
Adversarial Attacks [47.22918498465056]
本稿では,ニューラルネットワークの重要なクラスに対する対人訓練の性能を理論的に特徴付けることを目的とする。
この設定での一般化の導出には2つの大きな課題がある。
論文 参考訳(メタデータ) (2024-02-05T22:57:33Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - The Adversarial Consistency of Surrogate Risks for Binary Classification [20.03511985572199]
逆行訓練は、各例が小さなボール内で悪質に破損する可能性がある場合に、予想される0$-$1$損失を最小限にすることを目指している。
我々は、一貫した代理損失関数の集合の単純かつ完全な特徴づけを与える。
本結果から, 逆一貫したサロゲートのクラスは, 標準設定よりもかなり小さいことが明らかとなった。
論文 参考訳(メタデータ) (2023-05-17T05:27:40Z) - Safe Deployment for Counterfactual Learning to Rank with Exposure-Based
Risk Minimization [63.93275508300137]
本稿では,安全な配置を理論的に保証する新たなリスク認識型対実学習ランク法を提案する。
提案手法の有効性を実験的に検証し,データが少ない場合の動作不良の早期回避に有効であることを示す。
論文 参考訳(メタデータ) (2023-04-26T15:54:23Z) - The Consistency of Adversarial Training for Binary Classification [12.208787849155048]
敵の訓練は、上限に基づく代理リスクを最小化する。
双対分類におけるルベーグ測度に対して絶対連続的な分布に対して、どの超極基底が整合であるかを特徴付ける。
論文 参考訳(メタデータ) (2022-06-18T03:37:43Z) - Existence and Minimax Theorems for Adversarial Surrogate Risks in Binary
Classification [16.626667055542086]
敵対的訓練は、敵の攻撃に対して堅牢な訓練方法の最も一般的な方法の1つである。
我々は、逆代理リスクに対する証明と存在、正則性、およびミニマックス定理について述べる。
論文 参考訳(メタデータ) (2022-06-18T03:29:49Z) - Benign Overfitting in Adversarially Robust Linear Classification [91.42259226639837]
分類器がノイズの多いトレーニングデータを記憶しながらも、優れた一般化性能を達成している「双曲オーバーフィッティング」は、機械学習コミュニティにおいて大きな注目を集めている。
本研究は, 対人訓練において, 対人訓練において, 良心過剰が実際に発生することを示し, 対人訓練に対する防御の原則的アプローチを示す。
論文 参考訳(メタデータ) (2021-12-31T00:27:31Z) - How does the Combined Risk Affect the Performance of Unsupervised Domain
Adaptation Approaches? [33.65954640678556]
unsupervised domain adaptation (uda)は、ソースドメインからのラベル付きサンプルとターゲットドメインからのラベルなしサンプルでターゲット分類器をトレーニングすることを目的としている。
e-mixnetは、ラベル付きソースサンプルと疑似ラベル付きターゲットサンプルに汎用的なビビナル分布である強化ミックスアップを使用して、複合リスクのプロキシを計算する。
論文 参考訳(メタデータ) (2020-12-30T00:46:57Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Calibrated Surrogate Losses for Adversarially Robust Classification [92.37268323142307]
線形モデルに制限された場合の逆0-1損失に対して凸代理損失は考慮されないことを示す。
また,Massartの雑音条件を満たす場合,対向条件下では凸損失も校正可能であることを示す。
論文 参考訳(メタデータ) (2020-05-28T02:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。