論文の概要: SLOVA: Uncertainty Estimation Using Single Label One-Vs-All Classifier
- arxiv url: http://arxiv.org/abs/2206.13923v1
- Date: Tue, 28 Jun 2022 11:57:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-02 10:35:56.146055
- Title: SLOVA: Uncertainty Estimation Using Single Label One-Vs-All Classifier
- Title(参考訳): SLOVA: Single Label One-Vs-All Classifier を用いた不確かさ推定
- Authors: Bartosz W\'ojcik, Jacek Grela, Marek \'Smieja, Krzysztof Misztal,
Jacek Tabor
- Abstract要約: ディープニューラルネットワークは優れたパフォーマンスを示すが、予測された信頼性を確実に見積もることはできない。
複数ラベルの1-vs-all損失を適用すると、分類の曖昧さが明らかになり、モデルの過度さが軽減されることを示す。
導入されたSLOVAモデルは、典型的な1-vs-all予測確率を1つのラベルの状況に再定義する。
- 参考スコア(独自算出の注目度): 8.068701201341065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks present impressive performance, yet they cannot reliably
estimate their predictive confidence, limiting their applicability in high-risk
domains. We show that applying a multi-label one-vs-all loss reveals
classification ambiguity and reduces model overconfidence. The introduced SLOVA
(Single Label One-Vs-All) model redefines typical one-vs-all predictive
probabilities to a single label situation, where only one class is the correct
answer. The proposed classifier is confident only if a single class has a high
probability and other probabilities are negligible. Unlike the typical softmax
function, SLOVA naturally detects out-of-distribution samples if the
probabilities of all other classes are small. The model is additionally
fine-tuned with exponential calibration, which allows us to precisely align the
confidence score with model accuracy. We verify our approach on three tasks.
First, we demonstrate that SLOVA is competitive with the state-of-the-art on
in-distribution calibration. Second, the performance of SLOVA is robust under
dataset shifts. Finally, our approach performs extremely well in the detection
of out-of-distribution samples. Consequently, SLOVA is a tool that can be used
in various applications where uncertainty modeling is required.
- Abstract(参考訳): ディープニューラルネットワークは印象的なパフォーマンスを示すが、予測信頼度を確実に見積もることはできず、リスクの高い領域での適用性が制限される。
複数ラベルのone-vs-all損失を適用すると,分類の曖昧さが顕在化し,モデルの信頼性が低下する。
導入されたSLOVA(Single Label One-Vs-All)モデルは、典型的な1-vs-all予測確率を1つのラベルの状況に再定義する。
提案された分類器は、単一のクラスが高い確率を持ち、他の確率が無視できる場合に限り、自信を持つ。
典型的なソフトマックス関数とは異なり、SLOVAは、他の全てのクラスの確率が小さい場合、分布外サンプルを自然に検出する。
このモデルは指数的校正で微調整され、信頼度スコアとモデルの精度を正確に調整できます。
我々はアプローチを3つのタスクで検証する。
まず、SLOVAは分布内キャリブレーションの最先端技術と競合することを示す。
第二に、SLOVAのパフォーマンスはデータセットシフト下で堅牢である。
最後に,本手法は分布外サンプルの検出に非常に有効である。
したがって、SLOVAは不確実性モデリングが必要な様々なアプリケーションで使用できるツールである。
関連論文リスト
- Uncertainty-Calibrated Test-Time Model Adaptation without Forgetting [55.17761802332469]
テスト時間適応(TTA)は、与えられたモデルw.r.t.を任意のテストサンプルに適用することにより、トレーニングデータとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
事前の手法は各テストサンプルに対してバックプロパゲーションを実行するため、多くのアプリケーションに対して許容できない最適化コストがかかる。
本稿では, 有効サンプル選択基準を策定し, 信頼性および非冗長なサンプルを同定する, 効率的なアンチフォッティングテスト時間適応法を提案する。
論文 参考訳(メタデータ) (2024-03-18T05:49:45Z) - Can Class-Priors Help Single-Positive Multi-Label Learning? [40.312419865957224]
シングル陽性マルチラベル学習(SPMLL)は、典型的には弱教師付きマルチラベル学習問題である。
クラスプライア推定器を導入し、理論上はクラスプライアに収束することが保証されているクラスプライアを推定することができる。
推定されたクラスプライヤに基づいて、分類のための非バイアスリスク推定器が導出され、対応するリスク最小化器が、完全に教師されたデータ上で、最適リスク最小化器にほぼ収束することを保証できる。
論文 参考訳(メタデータ) (2023-09-25T05:45:57Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Equivariance and Invariance Inductive Bias for Learning from
Insufficient Data [65.42329520528223]
不十分なデータがモデルを、通常テストとは異なる限られたトレーニング環境にバイアスしやすくする理由が示されています。
従来のIRMにおける環境アノテーションの欠如を効果的に解決するクラスワイド不変リスク最小化(IRM)を提案する。
論文 参考訳(メタデータ) (2022-07-25T15:26:19Z) - Realistic Evaluation of Transductive Few-Shot Learning [41.06192162435249]
トランスダクティブ推論は、数ショットの学習で広く使われている。
推論における少数ショットタスクの問合せセット内における任意のクラス分布の効果について検討する。
我々は,3つの広く使用されているデータセットに対して,最先端のトランスダクティブ手法を実験的に評価した。
論文 参考訳(メタデータ) (2022-04-24T03:35:06Z) - Few-shot Learning via Dependency Maximization and Instance Discriminant
Analysis [21.8311401851523]
そこで本研究では,カテゴリ毎にラベル付きデータが極めて少ない新しいオブジェクトの認識をモデルが学習する,数ショットの学習問題について検討する。
本稿では,少数ショット処理に伴うラベルなしデータを利用して,少数ショット性能を向上させるための簡単な手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T02:19:01Z) - OpenMatch: Open-set Consistency Regularization for Semi-supervised
Learning with Outliers [71.08167292329028]
我々はOpenMatchと呼ばれる新しいオープンセットセミスーパーバイザードラーニング(OSSL)アプローチを提案する。
OpenMatchは、1-vs-all(OVA)分類器に基づいた新規検出とFixMatchを統合する。
3つのデータセットで最先端のパフォーマンスを実現し、CIFAR10の未ラベルデータで見えないアウトリーチを検出する上で、完全な教師付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-28T23:57:15Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。