論文の概要: Minimax risk classifiers with 0-1 loss
- arxiv url: http://arxiv.org/abs/2201.06487v1
- Date: Mon, 17 Jan 2022 16:00:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 14:00:29.495567
- Title: Minimax risk classifiers with 0-1 loss
- Title(参考訳): 0-1損失のミニマックスリスク分類器
- Authors: Santiago Mazuelas and Mauricio Romero and Peter Gr\"unwald
- Abstract要約: 本稿では、一般的な分類規則よりも最悪の0-1-lossを最小化するミニマックスリスク分類器(MRC)を提案する。
特徴カーネルによって与えられる特徴写像を用いて, MRC は強普遍的に整合性を示す。
- 参考スコア(独自算出の注目度): 3.4806267677524896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised classification techniques use training samples to learn a
classification rule with small expected 0-1-loss (error probability).
Conventional methods enable tractable learning and provide out-of-sample
generalization by using surrogate losses instead of the 0-1-loss and
considering specific families of rules (hypothesis classes). This paper
presents minimax risk classifiers (MRCs) that minimize the worst-case 0-1-loss
over general classification rules and provide tight performance guarantees at
learning. We show that MRCs are strongly universally consistent using feature
mappings given by characteristic kernels. The paper also proposes efficient
optimization techniques for MRC learning and shows that the methods presented
can provide accurate classification together with tight performance guarantees
- Abstract(参考訳): 教師付き分類技術は、トレーニングサンプルを使用して、予測される0-1-ロス(エラー確率)の少ない分類規則を学ぶ。
従来の手法では、0-1-lossの代わりにサーロゲート損失を使い、特定のルールファミリー(仮説クラス)を考慮し、扱いやすい学習とサンプル外一般化を可能にする。
本稿では、一般的な分類規則よりも最悪の0-1-lossを最小限に抑え、学習時の性能保証を行うミニマックスリスク分類器(MRC)を提案する。
特徴カーネルによって与えられる特徴写像を用いて, MRC は強普遍的に整合性を示す。
また, MRC学習における効率的な最適化手法を提案し, 提案手法が厳密な性能保証とともに正確な分類を提供できることを示した。
関連論文リスト
- Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - A Generalized Unbiased Risk Estimator for Learning with Augmented
Classes [70.20752731393938]
ラベルなしのデータが与えられた場合、非バイアスリスク推定器(URE)が導出され、理論的保証のあるLACでは最小限にすることができる。
理論的な保証を維持しつつ任意の損失関数を装備できる一般化されたUREを提案する。
論文 参考訳(メタデータ) (2023-06-12T06:52:04Z) - Shift Happens: Adjusting Classifiers [2.8682942808330703]
ブレアスコアやログロス(クロスエントロピー)のような適切なスコアリングルールによって測定される期待損失を最小限に抑えることは、確率的分類器を訓練する際の共通の目的である。
本稿では,全ての予測を平均予測とクラス分布に等化させる手法を提案する。
実際に、クラス分布が概ね知られている場合、シフトの量やクラス分布が知られている精度に応じて、損失が減少することがしばしばあることを実験によって実証した。
論文 参考訳(メタデータ) (2021-11-03T21:27:27Z) - Constrained Classification and Policy Learning [0.0]
制約付き分類器の集合における代理損失手順の整合性について検討する。
ヒンジ損失が第2のベストシナリオにおける一貫性を維持する唯一のサロゲート損失であることを示す。
論文 参考訳(メタデータ) (2021-06-24T10:43:00Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Scaling Ensemble Distribution Distillation to Many Classes with Proxy
Targets [12.461503242570643]
emphEnsemble Distribution Distillationは、単一のモデルが、アンサンブルの予測性能と不確実性の両方を効率的にキャプチャできるアプローチである。
分類では、最大確率基準を通じてアンサンブルメンバーの出力分布の上のディリクレ分布を訓練することで達成される。
理論的には、この基準はクラス数が非常に高い大規模タスクに適用される場合の収束性に乏しい。
論文 参考訳(メタデータ) (2021-05-14T17:50:14Z) - RATT: Leveraging Unlabeled Data to Guarantee Generalization [96.08979093738024]
ラベルのないデータを利用して一般化境界を生成する手法を紹介します。
境界が0-1経験的リスク最小化に有効であることを証明します。
この作業は、見えないラベル付きデータが利用できない場合でも、ディープネットの一般化を証明するためのオプションを実践者に提供します。
論文 参考訳(メタデータ) (2021-05-01T17:05:29Z) - Learning with risks based on M-location [6.903929927172917]
損失分布の位置と偏差から定義されるリスクの新たなクラスについて検討する。
クラスはスムーズな損失を取り巻くラッパーとして容易に実装されます。
論文 参考訳(メタデータ) (2020-12-04T06:21:51Z) - Minimax Classification with 0-1 Loss and Performance Guarantees [4.812718493682455]
教師付き分類技術は、トレーニングサンプルを使用して、予想される0-1損失の少ない分類規則を見つける。
従来の手法では,ルールの特定のファミリーに対するサロゲート損失を最小限に抑えて,効率的な学習とアウト・オブ・サンプルの一般化を実現している。
本稿では,サロゲート損失とルールファミリの選択に依存しないミニマックスリスク分類器(MRC)を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:11:28Z) - Selective Classification via One-Sided Prediction [54.05407231648068]
片側予測(OSP)に基づく緩和は、実際に関係する高目標精度体制において、ほぼ最適カバレッジが得られるSCスキームをもたらす。
理論的には,SCとOSPのバウンダリ一般化を導出し,その手法が小さな誤差レベルでのカバレッジにおいて,技術手法の状態を強く上回ることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:14:27Z) - Calibrated Surrogate Losses for Adversarially Robust Classification [92.37268323142307]
線形モデルに制限された場合の逆0-1損失に対して凸代理損失は考慮されないことを示す。
また,Massartの雑音条件を満たす場合,対向条件下では凸損失も校正可能であることを示す。
論文 参考訳(メタデータ) (2020-05-28T02:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。