論文の概要: On the Difficulty of Epistemic Uncertainty Quantification in Machine
Learning: The Case of Direct Uncertainty Estimation through Loss Minimisation
- arxiv url: http://arxiv.org/abs/2203.06102v1
- Date: Fri, 11 Mar 2022 17:26:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 12:24:36.264447
- Title: On the Difficulty of Epistemic Uncertainty Quantification in Machine
Learning: The Case of Direct Uncertainty Estimation through Loss Minimisation
- Title(参考訳): 機械学習における認識不確実性定量化の難しさについて:損失最小化による直接不確実性推定の場合
- Authors: Viktor Bengs, Eyke H\"ullermeier, Willem Waegeman
- Abstract要約: 不確かさの定量化は機械学習で注目を集めている。
後者は学習者の知識(知識の欠如)を指し、特に測定と定量化が難しいようである。
損失最小化は2次予測器では有効でないことを示す。
- 参考スコア(独自算出の注目度): 8.298716599039501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncertainty quantification has received increasing attention in machine
learning in the recent past. In particular, a distinction between aleatoric and
epistemic uncertainty has been found useful in this regard. The latter refers
to the learner's (lack of) knowledge and appears to be especially difficult to
measure and quantify. In this paper, we analyse a recent proposal based on the
idea of a second-order learner, which yields predictions in the form of
distributions over probability distributions. While standard (first-order)
learners can be trained to predict accurate probabilities, namely by minimising
suitable loss functions on sample data, we show that loss minimisation does not
work for second-order predictors: The loss functions proposed for inducing such
predictors do not incentivise the learner to represent its epistemic
uncertainty in a faithful way.
- Abstract(参考訳): 不確かさの定量化は、近年機械学習で注目を集めている。
特に, 動脈硬化とてんかんの不確かさの区別が有用であることが確認された。
後者は学習者の知識(知識の欠如)を指し、特に測定と定量化が難しいようである。
本稿では,確率分布上の分布の形式で予測を行う2階学習者の考えに基づく最近の提案について分析する。
標準的な(一階の)学習者は、サンプルデータ上で適切な損失関数を最小化することにより、正確な確率を予測するためにトレーニングすることができるが、損失最小化は二階の予測器では機能しないことを示す。
関連論文リスト
- Is Epistemic Uncertainty Faithfully Represented by Evidential Deep Learning Methods? [26.344949402398917]
本稿では,顕在的深層学習の新たな理論的考察について述べる。
これは二階損失関数の最適化の難しさを強調している。
第二次損失最小化における識別可能性と収束性の問題に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2024-02-14T10:07:05Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Model-Based Uncertainty in Value Functions [89.31922008981735]
MDP上の分布によって引き起こされる値の分散を特徴付けることに重点を置いている。
従来の作業は、いわゆる不確実性ベルマン方程式を解くことで、値よりも後方の分散を境界にしている。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式を提案する。
論文 参考訳(メタデータ) (2023-02-24T09:18:27Z) - On Second-Order Scoring Rules for Epistemic Uncertainty Quantification [8.298716599039501]
本研究では,2次学習者が不確実性を忠実に表現する動機となる損失関数が存在しないことを示す。
この結果を証明するための主要な数学的ツールとして,2次スコアリングルールの一般化概念を導入する。
論文 参考訳(メタデータ) (2023-01-30T08:59:45Z) - A Cautionary Tale of Decorrelating Theory Uncertainties [0.5076419064097732]
与えられた特徴に依存しない機械学習分類器を訓練する技術について議論する。
統計的起源を持たない理論の不確実性について検討する。
本稿では,2点(フラグメンテーション・モデリング)と連続(高次補正)の不確実性の明確な例を示す。
論文 参考訳(メタデータ) (2021-09-16T18:00:01Z) - Exploring Uncertainty in Deep Learning for Construction of Prediction
Intervals [27.569681578957645]
深層学習における不確実性を探究し,予測区間を構築する。
不確実性ラベルなしで不確実性を学習できる特殊損失関数を設計した。
本手法は予測間隔の構成と不確実性推定とを関連付ける。
論文 参考訳(メタデータ) (2021-04-27T02:58:20Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。