論文の概要: Learning When to Say "I Don't Know"
- arxiv url: http://arxiv.org/abs/2209.04944v1
- Date: Sun, 11 Sep 2022 21:50:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 12:38:19.558973
- Title: Learning When to Say "I Don't Know"
- Title(参考訳): いつ「私は知らない」と言うかを学ぶ
- Authors: Nicholas Kashani Motlagh, Jim Davis, Tim Anderson, Jeremy Gwinnup
- Abstract要約: 本稿では,決定空間における不確実性領域を識別・除去するリジェクトオプション分類手法を提案する。
そこで我々は,相補的拒絶領域を解析し,クラスごとのソフトマックス閾値を学習するための検証セットを用いることにより,代替的な定式化を検討する。
提案手法の利点を,2次元点,画像,テキスト分類データセットを用いて評価した。
- 参考スコア(独自算出の注目度): 0.5505634045241288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new Reject Option Classification technique to identify and
remove regions of uncertainty in the decision space for a given neural
classifier and dataset. Such existing formulations employ a learned rejection
(remove)/selection (keep) function and require either a known cost for
rejecting examples or strong constraints on the accuracy or coverage of the
selected examples. We consider an alternative formulation by instead analyzing
the complementary reject region and employing a validation set to learn
per-class softmax thresholds. The goal is to maximize the accuracy of the
selected examples subject to a natural randomness allowance on the rejected
examples (rejecting more incorrect than correct predictions). We provide
results showing the benefits of the proposed method over na\"ively thresholding
calibrated/uncalibrated softmax scores with 2-D points, imagery, and text
classification datasets using state-of-the-art pretrained models. Source code
is available at https://github.com/osu-cvl/learning-idk.
- Abstract(参考訳): 本稿では,与えられた神経分類器とデータセットの判定空間における不確実性領域を識別・除去するための新しい拒絶選択分類手法を提案する。
このような既存の定式化では、学習拒絶(remove)/選択(keep)関数を採用しており、選択された例の正確性または範囲に関する強い制約を拒絶するための既知のコストが要求される。
代わりに補完的な拒絶領域を分析し,クラス毎のソフトマックス閾値を学習するための検証セットを用いる。
目標は、拒否された例に対する自然ランダム性許容条件(正しい予測よりも不正確な予測)に基づいて選択された例の精度を最大化することである。
本研究では,事前学習モデルを用いた2次元点,画像,テキスト分類データセットを用いた,na\"ively thresholding calibrated/uncalibrated softmax scoreに対する提案手法の有用性を示す。
ソースコードはhttps://github.com/osu-cvl/learning-idkで入手できる。
関連論文リスト
- Stacked Confusion Reject Plots (SCORE) [0.7673339435080445]
我々は、共通の拒絶曲線は抽象的すぎるし、非専門家による解釈が難しいと論じる。
使用済みデータのより直感的な理解を提供するスタックド・コンフュージョン・リジェクト・プロット(SCORE)を提案する。
論文 参考訳(メタデータ) (2024-06-25T07:59:29Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Awareness of uncertainty in classification using a multivariate model and multi-views [1.3048920509133808]
提案モデルでは,不確かさ予測を正規化し,予測と不確かさ推定の両方を計算する訓練を行う。
複数ビュー予測と不確かさと信頼度を考慮し、最終的な予測を計算する方法をいくつか提案した。
提案手法はクリーンでノイズの多いラベル付きCIFAR-10データセットを用いて検証した。
論文 参考訳(メタデータ) (2024-04-16T06:40:51Z) - Dirichlet-Based Prediction Calibration for Learning with Noisy Labels [40.78497779769083]
雑音ラベルによる学習はディープニューラルネットワーク(DNN)の一般化性能を著しく損なう
既存のアプローチでは、損失補正やサンプル選択手法によってこの問題に対処している。
そこで我々は,textitDirichlet-based Prediction (DPC) 法を解法として提案する。
論文 参考訳(メタデータ) (2024-01-13T12:33:04Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Online Selective Classification with Limited Feedback [82.68009460301585]
オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
論文 参考訳(メタデータ) (2021-10-27T08:00:53Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Optimal strategies for reject option classifiers [0.0]
拒絶オプションの分類では、分類器は予測から逸脱する不確実なケースで許可される。
我々は、最小選択リスクと保証カバレッジを持つ分類器を求める有界被覆モデルという対称的な定義を作成した。
任意のブラックボックス分類器の例から適切な不確かさスコアを学習するための2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-29T11:09:32Z) - Regression with reject option and application to kNN [0.0]
我々は、このフレームワークをrejectオプションによる回帰として、rejectオプションによる分類の拡張として参照する。
2つのデータセットを含む最適規則を半教師付きで推定する手法を提案する。
その結果、リジェクションオプションを持つ予測器は、リスクとリジェクションレートの両方の観点から、リジェクションオプションを持つ最適予測器とほぼ同等であることが示された。
論文 参考訳(メタデータ) (2020-06-30T08:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。