論文の概要: Is Epistemic Uncertainty Faithfully Represented by Evidential Deep
Learning Methods?
- arxiv url: http://arxiv.org/abs/2402.09056v1
- Date: Wed, 14 Feb 2024 10:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 16:07:08.249971
- Title: Is Epistemic Uncertainty Faithfully Represented by Evidential Deep
Learning Methods?
- Title(参考訳): 感情的不確かさは証拠的深層学習法によって忠実に表されるか?
- Authors: Mira J\"urgens, Nis Meinert, Viktor Bengs, Eyke H\"ullermeier, Willem
Waegeman
- Abstract要約: 本稿では,顕在的深層学習の新たな理論的考察について述べる。
これは二階損失関数の最適化の難しさを強調している。
第二次損失最小化における識別可能性と収束性の問題に関する新たな洞察を提供する。
- 参考スコア(独自算出の注目度): 12.88166582566313
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trustworthy ML systems should not only return accurate predictions, but also
a reliable representation of their uncertainty. Bayesian methods are commonly
used to quantify both aleatoric and epistemic uncertainty, but alternative
approaches, such as evidential deep learning methods, have become popular in
recent years. The latter group of methods in essence extends empirical risk
minimization (ERM) for predicting second-order probability distributions over
outcomes, from which measures of epistemic (and aleatoric) uncertainty can be
extracted. This paper presents novel theoretical insights of evidential deep
learning, highlighting the difficulties in optimizing second-order loss
functions and interpreting the resulting epistemic uncertainty measures. With a
systematic setup that covers a wide range of approaches for classification,
regression and counts, it provides novel insights into issues of
identifiability and convergence in second-order loss minimization, and the
relative (rather than absolute) nature of epistemic uncertainty measures.
- Abstract(参考訳): 信頼できるMLシステムは、正確な予測を返すだけでなく、不確実性の信頼できる表現を返すべきです。
ベイズ法は、アレタリック法とエピステマティック法の両方を定量化するために一般的に用いられているが、明らかな深層学習法のような代替手法が近年普及している。
後者の手法のグループは本質的に、経験的リスク最小化(ERM)を拡張して、結果に対する二階確率分布を予測する。
本稿では,二階損失関数の最適化の難しさを浮き彫りにして,得られた認識的不確実性尺度を解釈する。
分類、回帰、カウントに関する幅広いアプローチをカバーする体系的な設定により、二階損失最小化における識別可能性と収束の問題、および認識の不確実性測度の相対的(絶対的ではなく)性質に関する新しい洞察を提供する。
関連論文リスト
- A unified uncertainty-aware exploration: Combining epistemic and
aleatory uncertainty [21.139502047972684]
そこで本稿では, リスク感応探索における浮腫性およびてんかん性不確実性の複合効果を定量的に評価するアルゴリズムを提案する。
本手法は,パラメータ化された回帰分布を推定する分布RLの新たな拡張の上に構築する。
探索課題とリスク課題を伴う課題に対する実験結果から,本手法が代替手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-01-05T17:39:00Z) - One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Ensemble Neural Networks for Remaining Useful Life (RUL) Prediction [0.39287497907611874]
メンテナンス計画の中核となる部分は、健康と劣化に関する優れた予後を提供する監視システムである。
本稿では,確率論的RUL予測のためのアンサンブルニューラルネットワークを提案する。
この方法はNASAのターボファンジェットエンジンであるCMAPSSのデータセットで試験される。
論文 参考訳(メタデータ) (2023-09-21T19:38:44Z) - On Second-Order Scoring Rules for Epistemic Uncertainty Quantification [8.298716599039501]
本研究では,2次学習者が不確実性を忠実に表現する動機となる損失関数が存在しないことを示す。
この結果を証明するための主要な数学的ツールとして,2次スコアリングルールの一般化概念を導入する。
論文 参考訳(メタデータ) (2023-01-30T08:59:45Z) - Uncertainty Quantification for Traffic Forecasting: A Unified Approach [21.556559649467328]
不確実性は時系列予測タスクに不可欠な考慮事項である。
本研究では,交通予測の不確かさの定量化に焦点をあてる。
STUQ(Deep S-Temporal Uncertainity Quantification)を開発した。
論文 参考訳(メタデータ) (2022-08-11T15:21:53Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - On the Difficulty of Epistemic Uncertainty Quantification in Machine
Learning: The Case of Direct Uncertainty Estimation through Loss Minimisation [8.298716599039501]
不確かさの定量化は機械学習で注目を集めている。
後者は学習者の知識(知識の欠如)を指し、特に測定と定量化が難しいようである。
損失最小化は2次予測器では有効でないことを示す。
論文 参考訳(メタデータ) (2022-03-11T17:26:05Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。