論文の概要: Minimax risk classifiers with 0-1 loss
- arxiv url: http://arxiv.org/abs/2201.06487v6
- Date: Thu, 17 Aug 2023 00:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 20:11:31.172673
- Title: Minimax risk classifiers with 0-1 loss
- Title(参考訳): 0-1損失のミニマックスリスク分類器
- Authors: Santiago Mazuelas and Mauricio Romero and Peter Gr\"unwald
- Abstract要約: 本稿では,不確実な分布集合に対する最悪の0-1損失を最小限に抑えるミニマックスリスク分類器(MRC)を提案する。
MRCは学習時に厳密な性能保証を提供し,特徴カーネルが与える特徴写像を用いて,一意に一貫した特徴を持つことを示す。
また, MRC学習における効率的な最適化手法を提案し, 提案手法は, 厳密な性能保証とともに, 正確な分類を行うことができることを示した。
- 参考スコア(独自算出の注目度): 7.650319416775203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised classification techniques use training samples to learn a
classification rule with small expected 0-1 loss (error probability).
Conventional methods enable tractable learning and provide out-of-sample
generalization by using surrogate losses instead of the 0-1 loss and
considering specific families of rules (hypothesis classes). This paper
presents minimax risk classifiers (MRCs) that minize the worst-case 0-1 loss
with respect to uncertainty sets of distributions that can include the
underlying distribution, with a tunable confidence. We show that MRCs can
provide tight performance guarantees at learning and are strongly universally
consistent using feature mappings given by characteristic kernels. The paper
also proposes efficient optimization techniques for MRC learning and shows that
the methods presented can provide accurate classification together with tight
performance guarantees in practice.
- Abstract(参考訳): 教師付き分類技術はトレーニングサンプルを使用して、期待される0-1の損失(エラー確率)の少ない分類規則を学ぶ。
従来の手法では、0-1の損失の代わりに代理損失を使い、特定のルールファミリー(仮説クラス)を考慮し、扱いやすい学習とサンプル外一般化を可能にする。
本稿では, 最小限のリスク分類器(MRC)について, 基礎となる分布を含む不確実性分布に対して, 最悪の0-1損失を最小限に抑える。
MRCは学習時に厳密な性能保証を提供することができ、特徴カーネルが与える特徴写像を用いて一意に一貫性を持つことを示す。
また,mrc学習のための効率的な最適化手法を提案するとともに,提案手法が精度の高い分類と性能保証を両立できることを示す。
関連論文リスト
- Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - A Generalized Unbiased Risk Estimator for Learning with Augmented
Classes [70.20752731393938]
ラベルなしのデータが与えられた場合、非バイアスリスク推定器(URE)が導出され、理論的保証のあるLACでは最小限にすることができる。
理論的な保証を維持しつつ任意の損失関数を装備できる一般化されたUREを提案する。
論文 参考訳(メタデータ) (2023-06-12T06:52:04Z) - Shift Happens: Adjusting Classifiers [2.8682942808330703]
ブレアスコアやログロス(クロスエントロピー)のような適切なスコアリングルールによって測定される期待損失を最小限に抑えることは、確率的分類器を訓練する際の共通の目的である。
本稿では,全ての予測を平均予測とクラス分布に等化させる手法を提案する。
実際に、クラス分布が概ね知られている場合、シフトの量やクラス分布が知られている精度に応じて、損失が減少することがしばしばあることを実験によって実証した。
論文 参考訳(メタデータ) (2021-11-03T21:27:27Z) - Constrained Classification and Policy Learning [0.0]
制約付き分類器の集合における代理損失手順の整合性について検討する。
ヒンジ損失が第2のベストシナリオにおける一貫性を維持する唯一のサロゲート損失であることを示す。
論文 参考訳(メタデータ) (2021-06-24T10:43:00Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Scaling Ensemble Distribution Distillation to Many Classes with Proxy
Targets [12.461503242570643]
emphEnsemble Distribution Distillationは、単一のモデルが、アンサンブルの予測性能と不確実性の両方を効率的にキャプチャできるアプローチである。
分類では、最大確率基準を通じてアンサンブルメンバーの出力分布の上のディリクレ分布を訓練することで達成される。
理論的には、この基準はクラス数が非常に高い大規模タスクに適用される場合の収束性に乏しい。
論文 参考訳(メタデータ) (2021-05-14T17:50:14Z) - RATT: Leveraging Unlabeled Data to Guarantee Generalization [96.08979093738024]
ラベルのないデータを利用して一般化境界を生成する手法を紹介します。
境界が0-1経験的リスク最小化に有効であることを証明します。
この作業は、見えないラベル付きデータが利用できない場合でも、ディープネットの一般化を証明するためのオプションを実践者に提供します。
論文 参考訳(メタデータ) (2021-05-01T17:05:29Z) - Learning with risks based on M-location [6.903929927172917]
損失分布の位置と偏差から定義されるリスクの新たなクラスについて検討する。
クラスはスムーズな損失を取り巻くラッパーとして容易に実装されます。
論文 参考訳(メタデータ) (2020-12-04T06:21:51Z) - Minimax Classification with 0-1 Loss and Performance Guarantees [4.812718493682455]
教師付き分類技術は、トレーニングサンプルを使用して、予想される0-1損失の少ない分類規則を見つける。
従来の手法では,ルールの特定のファミリーに対するサロゲート損失を最小限に抑えて,効率的な学習とアウト・オブ・サンプルの一般化を実現している。
本稿では,サロゲート損失とルールファミリの選択に依存しないミニマックスリスク分類器(MRC)を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:11:28Z) - Selective Classification via One-Sided Prediction [54.05407231648068]
片側予測(OSP)に基づく緩和は、実際に関係する高目標精度体制において、ほぼ最適カバレッジが得られるSCスキームをもたらす。
理論的には,SCとOSPのバウンダリ一般化を導出し,その手法が小さな誤差レベルでのカバレッジにおいて,技術手法の状態を強く上回ることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:14:27Z) - Calibrated Surrogate Losses for Adversarially Robust Classification [92.37268323142307]
線形モデルに制限された場合の逆0-1損失に対して凸代理損失は考慮されないことを示す。
また,Massartの雑音条件を満たす場合,対向条件下では凸損失も校正可能であることを示す。
論文 参考訳(メタデータ) (2020-05-28T02:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。