論文の概要: Minimax Classification with 0-1 Loss and Performance Guarantees
- arxiv url: http://arxiv.org/abs/2010.07964v1
- Date: Thu, 15 Oct 2020 18:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 03:15:07.934962
- Title: Minimax Classification with 0-1 Loss and Performance Guarantees
- Title(参考訳): 0-1損失と性能保証によるminimax分類
- Authors: Santiago Mazuelas and Andrea Zanoni and Aritz Perez
- Abstract要約: 教師付き分類技術は、トレーニングサンプルを使用して、予想される0-1損失の少ない分類規則を見つける。
従来の手法では,ルールの特定のファミリーに対するサロゲート損失を最小限に抑えて,効率的な学習とアウト・オブ・サンプルの一般化を実現している。
本稿では,サロゲート損失とルールファミリの選択に依存しないミニマックスリスク分類器(MRC)を提案する。
- 参考スコア(独自算出の注目度): 4.812718493682455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised classification techniques use training samples to find
classification rules with small expected 0-1 loss. Conventional methods achieve
efficient learning and out-of-sample generalization by minimizing surrogate
losses over specific families of rules. This paper presents minimax risk
classifiers (MRCs) that do not rely on a choice of surrogate loss and family of
rules. MRCs achieve efficient learning and out-of-sample generalization by
minimizing worst-case expected 0-1 loss w.r.t. uncertainty sets that are
defined by linear constraints and include the true underlying distribution. In
addition, MRCs' learning stage provides performance guarantees as lower and
upper tight bounds for expected 0-1 loss. We also present MRCs' finite-sample
generalization bounds in terms of training size and smallest minimax risk, and
show their competitive classification performance w.r.t. state-of-the-art
techniques using benchmark datasets.
- Abstract(参考訳): 教師付き分類技術は、トレーニングサンプルを使用して、予想される0-1損失の少ない分類規則を見つける。
従来の手法では,ルールの特定のファミリーに対するサロゲート損失を最小限に抑えて,効率的な学習とアウトオブサンプルの一般化を実現している。
本稿では,サロゲート損失とルールファミリの選択に依存しないミニマックスリスク分類器(MRC)を提案する。
mrcsは、線形制約によって定義され、真の基底分布を含む不確実性集合を最小化することにより、効率的な学習とサンプルの一般化を実現する。
さらに、mrcの学習段階は、期待される0-1の損失に対する下限と上限として、パフォーマンス保証を提供する。
また, MRCs の有限サンプル一般化境界をトレーニングサイズと最小限のミニマックスリスクで表し, ベンチマークデータセットを用いた最先端技術と競合する分類性能を示す。
関連論文リスト
- Learning Towards the Largest Margins [83.7763875464011]
損失関数は、クラスとサンプルの両方の最大のマージンを促進するべきである。
この原則化されたフレームワークは、既存のマージンベースの損失を理解し、解釈するための新しい視点を提供するだけでなく、新しいツールの設計を導くことができます。
論文 参考訳(メタデータ) (2022-06-23T10:03:03Z) - Learning Imbalanced Datasets with Maximum Margin Loss [21.305656747991026]
クラス不均衡データ学習問題を考慮した学習アルゴリズムとして,最大マージン(MM)を提案する。
我々は、シフトする決定境界を通して有界なマージン一般化を最小化することで、新しい最大マージン損失関数を設計する。
論文 参考訳(メタデータ) (2022-06-11T00:21:41Z) - Minimax risk classifiers with 0-1 loss [7.650319416775203]
本稿では,不確実な分布集合に対する最悪の0-1損失を最小限に抑えるミニマックスリスク分類器(MRC)を提案する。
MRCは学習時に厳密な性能保証を提供し,特徴カーネルが与える特徴写像を用いて,一意に一貫した特徴を持つことを示す。
また, MRC学習における効率的な最適化手法を提案し, 提案手法は, 厳密な性能保証とともに, 正確な分類を行うことができることを示した。
論文 参考訳(メタデータ) (2022-01-17T16:00:07Z) - Shift Happens: Adjusting Classifiers [2.8682942808330703]
ブレアスコアやログロス(クロスエントロピー)のような適切なスコアリングルールによって測定される期待損失を最小限に抑えることは、確率的分類器を訓練する際の共通の目的である。
本稿では,全ての予測を平均予測とクラス分布に等化させる手法を提案する。
実際に、クラス分布が概ね知られている場合、シフトの量やクラス分布が知られている精度に応じて、損失が減少することがしばしばあることを実験によって実証した。
論文 参考訳(メタデータ) (2021-11-03T21:27:27Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Constrained Classification and Policy Learning [0.0]
制約付き分類器の集合における代理損失手順の整合性について検討する。
ヒンジ損失が第2のベストシナリオにおける一貫性を維持する唯一のサロゲート損失であることを示す。
論文 参考訳(メタデータ) (2021-06-24T10:43:00Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Learning, compression, and leakage: Minimising classification error via
meta-universal compression principles [87.054014983402]
学習シナリオのための圧縮技法の有望なグループは、正規化極大(NML)符号化である。
ここでは,教師付き分類問題に対するNMLに基づく意思決定戦略を検討し,多種多様なモデルに適用した場合にPAC学習を実現することを示す。
本手法の誤分類率は,プライバシに敏感なシナリオにおいて,データ漏洩の可能性を定量化するための指標である最大リークによって上限づけられていることを示す。
論文 参考訳(メタデータ) (2020-10-14T20:03:58Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z) - Calibrated Surrogate Losses for Adversarially Robust Classification [92.37268323142307]
線形モデルに制限された場合の逆0-1損失に対して凸代理損失は考慮されないことを示す。
また,Massartの雑音条件を満たす場合,対向条件下では凸損失も校正可能であることを示す。
論文 参考訳(メタデータ) (2020-05-28T02:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。