論文の概要: Adversarial Consistency and the Uniqueness of the Adversarial Bayes Classifier
- arxiv url: http://arxiv.org/abs/2404.17358v3
- Date: Mon, 21 Oct 2024 03:22:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:14:18.948155
- Title: Adversarial Consistency and the Uniqueness of the Adversarial Bayes Classifier
- Title(参考訳): 対数一貫性と対数ベイズ分類器の特異性
- Authors: Natalie S. Frank,
- Abstract要約: 逆代理リスクの最小化は、堅牢な分類器を学習するための一般的な手法である。
妥当な分布仮定の下では、凸代理損失は逆学習において統計的に整合であることが示され、逆ベイズ分類器は特異性の特定の概念を満たす。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Minimizing an adversarial surrogate risk is a common technique for learning robust classifiers. Prior work showed that convex surrogate losses are not statistically consistent in the adversarial context -- or in other words, a minimizing sequence of the adversarial surrogate risk will not necessarily minimize the adversarial classification error. We connect the consistency of adversarial surrogate losses to properties of minimizers to the adversarial classification risk, known as adversarial Bayes classifiers. Specifically, under reasonable distributional assumptions, a convex surrogate loss is statistically consistent for adversarial learning iff the adversarial Bayes classifier satisfies a certain notion of uniqueness.
- Abstract(参考訳): 逆代理リスクの最小化は、堅牢な分類器を学習するための一般的な手法である。
以前の研究では、凸代理損失は敵の文脈で統計的に一致していないことが示されており、つまり、敵の代理リスクの最小化シーケンスは、必ずしも敵の分類誤差を最小化するとは限らない。
我々は、逆代理損失の一貫性を、最小化器の特性と、逆ベイズ分類器として知られる逆分類リスクに結びつける。
特に、合理的な分布仮定の下では、凸代理損失は、逆学習において統計的に一貫したものであり、逆ベイズ分類器は、一意性の特定の概念を満たす。
関連論文リスト
- Non-Asymptotic Bounds for Adversarial Excess Risk under Misspecified
Models [9.65010022854885]
本研究では,ある平滑な条件下での分布的敵攻撃によって引き起こされるリスクに,敵対的リスクが等価であることを示す。
対向推定器の一般化性能を評価するため, 対向過大リスクについて検討した。
論文 参考訳(メタデータ) (2023-09-02T00:51:19Z) - Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - The Adversarial Consistency of Surrogate Risks for Binary Classification [20.03511985572199]
逆行訓練は、各例が小さなボール内で悪質に破損する可能性がある場合に、予想される0$-$1$損失を最小限にすることを目指している。
我々は、一貫した代理損失関数の集合の単純かつ完全な特徴づけを与える。
本結果から, 逆一貫したサロゲートのクラスは, 標準設定よりもかなり小さいことが明らかとなった。
論文 参考訳(メタデータ) (2023-05-17T05:27:40Z) - The Consistency of Adversarial Training for Binary Classification [12.208787849155048]
敵の訓練は、上限に基づく代理リスクを最小化する。
双対分類におけるルベーグ測度に対して絶対連続的な分布に対して、どの超極基底が整合であるかを特徴付ける。
論文 参考訳(メタデータ) (2022-06-18T03:37:43Z) - Benign Overfitting in Adversarially Robust Linear Classification [91.42259226639837]
分類器がノイズの多いトレーニングデータを記憶しながらも、優れた一般化性能を達成している「双曲オーバーフィッティング」は、機械学習コミュニティにおいて大きな注目を集めている。
本研究は, 対人訓練において, 対人訓練において, 良心過剰が実際に発生することを示し, 対人訓練に対する防御の原則的アプローチを示す。
論文 参考訳(メタデータ) (2021-12-31T00:27:31Z) - Constrained Classification and Policy Learning [0.0]
制約付き分類器の集合における代理損失手順の整合性について検討する。
ヒンジ損失が第2のベストシナリオにおける一貫性を維持する唯一のサロゲート損失であることを示す。
論文 参考訳(メタデータ) (2021-06-24T10:43:00Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Towards Robust Fine-grained Recognition by Maximal Separation of
Discriminative Features [72.72840552588134]
本研究は, 粒度認識ネットワークにおけるクラス間の潜伏表現の近接性を, 敵攻撃の成功の鍵となる要因として同定する。
注意に基づく正規化機構を導入し、異なるクラスの識別潜在特徴を最大限に分離する。
論文 参考訳(メタデータ) (2020-06-10T18:34:45Z) - Calibrated Surrogate Losses for Adversarially Robust Classification [92.37268323142307]
線形モデルに制限された場合の逆0-1損失に対して凸代理損失は考慮されないことを示す。
また,Massartの雑音条件を満たす場合,対向条件下では凸損失も校正可能であることを示す。
論文 参考訳(メタデータ) (2020-05-28T02:40:42Z) - Fundamental Tradeoffs between Invariance and Sensitivity to Adversarial
Perturbations [65.05561023880351]
敵の例は誤分類を引き起こすために作られた悪意のある入力である。
本稿では, 相補的障害モード, 不変性に基づく逆数例について検討する。
感度に基づく攻撃に対する防御は、不変性に基づく攻撃に対するモデルの精度を積極的に損なうことを示す。
論文 参考訳(メタデータ) (2020-02-11T18:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。