論文の概要: The Consistency of Adversarial Training for Binary Classification
- arxiv url: http://arxiv.org/abs/2206.09099v2
- Date: Wed, 17 May 2023 05:19:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 21:05:24.229750
- Title: The Consistency of Adversarial Training for Binary Classification
- Title(参考訳): バイナリ分類における対人訓練の整合性
- Authors: Natalie S. Frank, Jonathan Niles-Weed
- Abstract要約: 敵の訓練は、上限に基づく代理リスクを最小化する。
双対分類におけるルベーグ測度に対して絶対連続的な分布に対して、どの超極基底が整合であるかを特徴付ける。
- 参考スコア(独自算出の注目度): 12.208787849155048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robustness to adversarial perturbations is of paramount concern in modern
machine learning. One of the state-of-the-art methods for training robust
classifiers is adversarial training, which involves minimizing a supremum-based
surrogate risk. The statistical consistency of surrogate risks is well
understood in the context of standard machine learning, but not in the
adversarial setting. In this paper, we characterize which supremum-based
surrogates are consistent for distributions absolutely continuous with respect
to Lebesgue measure in binary classification. Furthermore, we obtain
quantitative bounds relating adversarial surrogate risks to the adversarial
classification risk. Lastly, we discuss implications for the $\cH$-consistency
of adversarial training.
- Abstract(参考訳): 敵の摂動に対するロバスト性は、現代の機械学習において重要な関心事である。
頑健な分類器を訓練するための最先端の手法の1つは、超越的なサロゲートリスクを最小化する敵の訓練である。
サーロゲートリスクの統計的一貫性は、標準的な機械学習の文脈ではよく理解されているが、敵対的な設定では理解されていない。
本稿では,二元分類におけるルベーグ測度に関して絶対連続な分布に対して,どのスプレム系サロゲートが一致するかを特徴付ける。
さらに, 敵の分類リスクに対する, 敵の代理的リスクに関連する定量的境界を求める。
最後に, 対人訓練における$\cH$-consistencyの意義について論じる。
関連論文リスト
- Learning Fair Robustness via Domain Mixup [8.471466670802817]
本研究では,公平なロバストな分類器の学習問題に対するmixupの利用を提案する。
本研究は, 対人訓練と組み合わせることで, クラスレベルでの頑健さの相違を確実に軽減できることを示す。
論文 参考訳(メタデータ) (2024-11-21T18:56:33Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Adversarial Consistency and the Uniqueness of the Adversarial Bayes Classifier [0.0]
逆代理リスクの最小化は、堅牢な分類器を学習するための一般的な手法である。
妥当な分布仮定の下では、凸代理損失は逆学習において統計的に整合であることが示され、逆ベイズ分類器は特異性の特定の概念を満たす。
論文 参考訳(メタデータ) (2024-04-26T12:16:08Z) - Generalization Properties of Adversarial Training for $\ell_0$-Bounded
Adversarial Attacks [47.22918498465056]
本稿では,ニューラルネットワークの重要なクラスに対する対人訓練の性能を理論的に特徴付けることを目的とする。
この設定での一般化の導出には2つの大きな課題がある。
論文 参考訳(メタデータ) (2024-02-05T22:57:33Z) - Non-Asymptotic Bounds for Adversarial Excess Risk under Misspecified
Models [9.65010022854885]
本研究では,ある平滑な条件下での分布的敵攻撃によって引き起こされるリスクに,敵対的リスクが等価であることを示す。
対向推定器の一般化性能を評価するため, 対向過大リスクについて検討した。
論文 参考訳(メタデータ) (2023-09-02T00:51:19Z) - Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - The Adversarial Consistency of Surrogate Risks for Binary Classification [20.03511985572199]
逆行訓練は、各例が小さなボール内で悪質に破損する可能性がある場合に、予想される0$-$1$損失を最小限にすることを目指している。
我々は、一貫した代理損失関数の集合の単純かつ完全な特徴づけを与える。
本結果から, 逆一貫したサロゲートのクラスは, 標準設定よりもかなり小さいことが明らかとなった。
論文 参考訳(メタデータ) (2023-05-17T05:27:40Z) - Existence and Minimax Theorems for Adversarial Surrogate Risks in Binary
Classification [16.626667055542086]
敵対的訓練は、敵の攻撃に対して堅牢な訓練方法の最も一般的な方法の1つである。
我々は、逆代理リスクに対する証明と存在、正則性、およびミニマックス定理について述べる。
論文 参考訳(メタデータ) (2022-06-18T03:29:49Z) - Benign Overfitting in Adversarially Robust Linear Classification [91.42259226639837]
分類器がノイズの多いトレーニングデータを記憶しながらも、優れた一般化性能を達成している「双曲オーバーフィッティング」は、機械学習コミュニティにおいて大きな注目を集めている。
本研究は, 対人訓練において, 対人訓練において, 良心過剰が実際に発生することを示し, 対人訓練に対する防御の原則的アプローチを示す。
論文 参考訳(メタデータ) (2021-12-31T00:27:31Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Towards Robust Fine-grained Recognition by Maximal Separation of
Discriminative Features [72.72840552588134]
本研究は, 粒度認識ネットワークにおけるクラス間の潜伏表現の近接性を, 敵攻撃の成功の鍵となる要因として同定する。
注意に基づく正規化機構を導入し、異なるクラスの識別潜在特徴を最大限に分離する。
論文 参考訳(メタデータ) (2020-06-10T18:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。