論文の概要: A Data-Driven Measure of Relative Uncertainty for Misclassification
Detection
- arxiv url: http://arxiv.org/abs/2306.01710v2
- Date: Thu, 8 Feb 2024 13:26:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 19:34:25.125962
- Title: A Data-Driven Measure of Relative Uncertainty for Misclassification
Detection
- Title(参考訳): 誤分類検出のためのデータ駆動型相対不確かさ尺度
- Authors: Eduardo Dadalto, Marco Romanelli, Georg Pichler, and Pablo Piantanida
- Abstract要約: 誤分類検出のための観測者に対して,不確実性に関するデータ駆動測度を導入する。
ソフト予測の分布パターンを学習することにより,不確実性を測定することができる。
複数の画像分類タスクに対する経験的改善を示し、最先端の誤分類検出方法より優れていることを示す。
- 参考スコア(独自算出の注目度): 25.947610541430013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Misclassification detection is an important problem in machine learning, as
it allows for the identification of instances where the model's predictions are
unreliable. However, conventional uncertainty measures such as Shannon entropy
do not provide an effective way to infer the real uncertainty associated with
the model's predictions. In this paper, we introduce a novel data-driven
measure of uncertainty relative to an observer for misclassification detection.
By learning patterns in the distribution of soft-predictions, our uncertainty
measure can identify misclassified samples based on the predicted class
probabilities. Interestingly, according to the proposed measure,
soft-predictions corresponding to misclassified instances can carry a large
amount of uncertainty, even though they may have low Shannon entropy. We
demonstrate empirical improvements over multiple image classification tasks,
outperforming state-of-the-art misclassification detection methods.
- Abstract(参考訳): モデルの予測が信頼できないインスタンスの識別を可能にするため、機械学習では誤分類検出が重要な問題である。
しかし、シャノンエントロピーのような従来の不確実性尺度は、モデルの予測に関連する実際の不確実性を予測する効果的な方法を提供していない。
本稿では,誤分類検出のための観測者に対する不確実性の新たなデータ駆動尺度を提案する。
ソフト予測分布のパターンを学習することにより,予測されたクラス確率に基づいて,不確かさ尺度が誤分類されたサンプルを識別できる。
提案した測定値によると,シャノンエントロピーが低い場合でも,誤分類された事例に対応するソフト予測が大量の不確実性をもたらす可能性がある。
複数の画像分類タスクに対する経験的改善を示し、最先端の誤分類検出方法より優れていることを示す。
関連論文リスト
- Probabilistic Contrastive Learning with Explicit Concentration on the Hypersphere [3.572499139455308]
本稿では,球面空間に表現を埋め込むことにより,不確実性を比較学習に取り入れる新たな視点を提案する。
我々は、濃度パラメータであるカッパを直接解釈可能な尺度として利用し、不確実性を明示的に定量化する。
論文 参考訳(メタデータ) (2024-05-26T07:08:13Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - What is Flagged in Uncertainty Quantification? Latent Density Models for
Uncertainty Categorization [68.15353480798244]
不確実性定量化(UQ)は、信頼できる機械学習モデルを作成する上で不可欠である。
近年、疑わしい事例にフラグを立てるUQ手法が急上昇している。
分類タスクにおけるUQ手法によってフラグ付けされた不確実な例を分類する枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-11T19:47:00Z) - Data Uncertainty without Prediction Models [0.8223798883838329]
予測モデルを明示的に使用せずに、距離重み付きクラス不純物という不確実性推定手法を提案する。
距離重み付きクラス不純物は予測モデルによらず効果的に機能することを確認した。
論文 参考訳(メタデータ) (2022-04-25T13:26:06Z) - Theoretical characterization of uncertainty in high-dimensional linear
classification [24.073221004661427]
本研究では,高次元入力データとラベルの限られたサンプル数から学習する不確実性が,近似メッセージパッシングアルゴリズムによって得られることを示す。
我々は,信頼度を適切に正則化することで緩和する方法について論じるとともに,損失に対するクロスバリデーションが0/1誤差よりもキャリブレーションが優れていることを示す。
論文 参考訳(メタデータ) (2022-02-07T15:32:07Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Identifying Incorrect Classifications with Balanced Uncertainty [21.130311978327196]
不確実性推定は、コストに敏感なディープラーニングアプリケーションには不可欠である。
本研究では,不確実性推定における不均衡を2種類の分布バイアスとしてモデル化するための分布不均衡を提案する。
そこで我々は,新たな分布的焦点損失目標を持つ不確実性推定器を学習する,バランスト・トゥルー・クラス確率フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-15T11:52:31Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。