論文の概要: Identifying Incorrect Classifications with Balanced Uncertainty
- arxiv url: http://arxiv.org/abs/2110.08030v1
- Date: Fri, 15 Oct 2021 11:52:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 20:46:58.080661
- Title: Identifying Incorrect Classifications with Balanced Uncertainty
- Title(参考訳): バランスの不確かさによる誤分類の特定
- Authors: Bolian Li, Zige Zheng and Changqing Zhang
- Abstract要約: 不確実性推定は、コストに敏感なディープラーニングアプリケーションには不可欠である。
本研究では,不確実性推定における不均衡を2種類の分布バイアスとしてモデル化するための分布不均衡を提案する。
そこで我々は,新たな分布的焦点損失目標を持つ不確実性推定器を学習する,バランスト・トゥルー・クラス確率フレームワークを提案する。
- 参考スコア(独自算出の注目度): 21.130311978327196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uncertainty estimation is critical for cost-sensitive deep-learning
applications (i.e. disease diagnosis). It is very challenging partly due to the
inaccessibility of uncertainty groundtruth in most datasets. Previous works
proposed to estimate the uncertainty from softmax calibration, Monte Carlo
sampling, subjective logic and so on. However, these existing methods tend to
be over-confident about their predictions with unreasonably low overall
uncertainty, which originates from the imbalance between positive (correct
classifications) and negative (incorrect classifications) samples. For this
issue, we firstly propose the distributional imbalance to model the imbalance
in uncertainty estimation as two kinds of distribution biases, and secondly
propose Balanced True Class Probability (BTCP) framework, which learns an
uncertainty estimator with a novel Distributional Focal Loss (DFL) objective.
Finally, we evaluate the BTCP in terms of failure prediction and
out-of-distribution (OOD) detection on multiple datasets. The experimental
results show that BTCP outperforms other uncertainty estimation methods
especially in identifying incorrect classifications.
- Abstract(参考訳): 不確かさの推定は、コストに敏感なディープラーニングアプリケーション(すなわち病気の診断)には不可欠である。
ほとんどのデータセットで不確実な基盤が到達できないため、これは非常に難しい。
従来,ソフトマックス校正,モンテカルロサンプリング,主観論理などから不確かさを推定するために提案してきた。
しかしながら、これらの既存の手法は、正(正しい分類)と負(正しくない分類)のサンプルの不均衡から生じる、不当に低い全体的な不確実性で予測に過度に自信を持つ傾向がある。
本稿では、まず、不確実性推定の不均衡を2種類の分布バイアスとしてモデル化するための分布不均衡を提案し、次に、新しい分布焦点損失(DFL)目標を用いた不確実性推定を学習するバランスト・トゥルー・クラス確率(BTCP)フレームワークを提案する。
最後に,複数のデータセット上での障害予測とアウト・オブ・ディストリビューション(OOD)検出の観点から,BTCPを評価する。
実験の結果,BTCPは他の不確実性推定法,特に誤分類の同定において優れていた。
関連論文リスト
- Evaluation of uncertainty estimations for Gaussian process regression based machine learning interatomic potentials [0.0]
機械学習の原子間ポテンシャルの不確実性推定は、導入した追加モデルエラーの定量化に不可欠である。
我々は、クーロンおよびSOAP表現を持つGPRモデルを、ポテンシャルエネルギー表面と分子の励起エネルギーを予測する入力として考える。
我々は,GPRの分散とアンサンブルに基づく不確かさが誤差とどのように関係しているか,また,固定された構成空間から最も不確実なサンプルを選択することによりモデル性能が向上するかを評価する。
論文 参考訳(メタデータ) (2024-10-27T10:06:09Z) - Error-Driven Uncertainty Aware Training [7.702016079410588]
Error-Driven Uncertainty Aware Trainingは、ニューラル分類器が不確実性を正確に推定する能力を高めることを目的としている。
EUATアプローチは、モデルのトレーニングフェーズ中に、トレーニング例が正しく予測されているか、あるいは正しく予測されているかによって、2つの損失関数を選択的に使用することによって機能する。
画像認識領域における多様なニューラルモデルとデータセットを用いてEUATを評価する。
論文 参考訳(メタデータ) (2024-05-02T11:48:14Z) - Uncertainty-Calibrated Test-Time Model Adaptation without Forgetting [55.17761802332469]
テスト時間適応(TTA)は、与えられたモデルw.r.t.を任意のテストサンプルに適用することにより、トレーニングデータとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
事前の手法は各テストサンプルに対してバックプロパゲーションを実行するため、多くのアプリケーションに対して許容できない最適化コストがかかる。
本稿では, 有効サンプル選択基準を策定し, 信頼性および非冗長なサンプルを同定する, 効率的なアンチフォッティングテスト時間適応法を提案する。
論文 参考訳(メタデータ) (2024-03-18T05:49:45Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Adaptive Uncertainty Estimation via High-Dimensional Testing on Latent
Representations [28.875819909902244]
不確実性推定は、訓練されたディープニューラルネットワークの信頼性を評価することを目的としている。
既存の不確実性推定アプローチは、低次元分布仮定に依存している。
本研究では,不確実性推定のためのデータ適応型高次元仮説テストを用いた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-25T12:22:18Z) - Evaluating AI systems under uncertain ground truth: a case study in
dermatology [44.80772162289557]
本稿では,アノテーションの不確実性を測定するための指標を提案し,評価のための不確実性調整指標を提案する。
本稿では,本フレームワークを皮膚条件分類に応用した症例スタディとして,アノテーションを診断の形で提供した画像について述べる。
論文 参考訳(メタデータ) (2023-07-05T10:33:45Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - DBCal: Density Based Calibration of classifier predictions for
uncertainty quantification [0.0]
本稿では,機械学習手法を用いて予測の不確かさを定量化する手法を提案する。
提案手法は,2つのニューラルネットワークの出力が正しい確率を正確に推定する。
論文 参考訳(メタデータ) (2022-04-01T01:03:41Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。