論文の概要: Why Machine Learning Models Fail to Fully Capture Epistemic Uncertainty
- arxiv url: http://arxiv.org/abs/2505.23506v1
- Date: Thu, 29 May 2025 14:50:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.914245
- Title: Why Machine Learning Models Fail to Fully Capture Epistemic Uncertainty
- Title(参考訳): 機械学習モデルが完全捕獲不確実性に失敗する理由
- Authors: Sebastián Jiménez, Mira Jürgens, Willem Waegeman,
- Abstract要約: 我々は、機械学習モデルにおいて、よりきめ細かな疫学的不確実性源の分類を利用する。
以上の結果から,高モデル偏見は誤認を招きかねない不確実性の推定に繋がる可能性が示唆された。
一般的な2階不確実性手法は、バイアスによって引き起こされた誤差をアレータリック推定に体系的に曖昧にする。
- 参考スコア(独自算出の注目度): 1.6112718683989882
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years various supervised learning methods that disentangle aleatoric and epistemic uncertainty based on second-order distributions have been proposed. We argue that these methods fail to capture critical components of epistemic uncertainty, particularly due to the often-neglected component of model bias. To show this, we make use of a more fine-grained taxonomy of epistemic uncertainty sources in machine learning models, and analyse how the classical bias-variance decomposition of the expected prediction error can be decomposed into different parts reflecting these uncertainties. By using a simulation-based evaluation protocol which encompasses epistemic uncertainty due to both procedural- and data-driven uncertainty components, we illustrate that current methods rarely capture the full spectrum of epistemic uncertainty. Through theoretical insights and synthetic experiments, we show that high model bias can lead to misleadingly low estimates of epistemic uncertainty, and common second-order uncertainty quantification methods systematically blur bias-induced errors into aleatoric estimates, thereby underrepresenting epistemic uncertainty. Our findings underscore that meaningful aleatoric estimates are feasible only if all relevant sources of epistemic uncertainty are properly represented.
- Abstract(参考訳): 近年,2次分布に基づく動脈・てんかんの不確かさを解消する様々な教師あり学習法が提案されている。
これらの手法は、特に、しばしば無視されるモデルバイアスの成分のために、てんかん不確実性の重要成分を捕捉できないと論じる。
これを示すために、機械学習モデルにおいて、よりきめ細かい疫学的不確実性源の分類を利用し、予測誤差の古典的偏差分解が、これらの不確実性を反映した異なる部分にどのように分解できるかを分析する。
手続き型およびデータ駆動型両方の不確実性成分によるてんかん不確実性を含むシミュレーションベースの評価プロトコルを用いることで, 現状の方法がてんかん不確実性の全スペクトルを捉えることは滅多にないことを示す。
理論的知見と合成実験により, 高いモデルバイアスは, 誤認的不確実性の推定を導出しうることを示すとともに, 一般的な2次不確実性定量法は, バイアスによって引き起こされる誤差をアレータティックな推定に体系的に曖昧にし, それによって, てんかん不確実性を過小に表現することを示した。
以上の結果から,有意なアレタリック推定は,すべての関連性てんかん発生源が適切に表現されている場合にのみ実現可能であることが示唆された。
関連論文リスト
- Probabilistic Modeling of Disparity Uncertainty for Robust and Efficient Stereo Matching [61.73532883992135]
本稿では,新しい不確実性を考慮したステレオマッチングフレームワークを提案する。
我々はベイズリスクを不確実性の測定として採用し、データを別々に見積もり、不確実性をモデル化する。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - How disentangled are your classification uncertainties? [6.144680854063938]
機械学習における不確実性定量化は、予測における不確実性の原因を予測するために進んでいる。
本研究は,失語症およびてんかんの不確かさの解消を評価するための一連の実験を提案する。
論文 参考訳(メタデータ) (2024-08-22T07:42:43Z) - Is Epistemic Uncertainty Faithfully Represented by Evidential Deep Learning Methods? [26.344949402398917]
本稿では,顕在的深層学習の新たな理論的考察について述べる。
これは二階損失関数の最適化の難しさを強調している。
第二次損失最小化における識別可能性と収束性の問題に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2024-02-14T10:07:05Z) - One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。