論文の概要: On Second-Order Scoring Rules for Epistemic Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2301.12736v1
- Date: Mon, 30 Jan 2023 08:59:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 15:17:21.519094
- Title: On Second-Order Scoring Rules for Epistemic Uncertainty Quantification
- Title(参考訳): 認識的不確実性定量化のための2次スコアリング規則について
- Authors: Viktor Bengs and Eyke H\"ullermeier and Willem Waegeman
- Abstract要約: 本研究では,2次学習者が不確実性を忠実に表現する動機となる損失関数が存在しないことを示す。
この結果を証明するための主要な数学的ツールとして,2次スコアリングルールの一般化概念を導入する。
- 参考スコア(独自算出の注目度): 8.298716599039501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well known that accurate probabilistic predictors can be trained
through empirical risk minimisation with proper scoring rules as loss
functions. While such learners capture so-called aleatoric uncertainty of
predictions, various machine learning methods have recently been developed with
the goal to let the learner also represent its epistemic uncertainty, i.e., the
uncertainty caused by a lack of knowledge and data. An emerging branch of the
literature proposes the use of a second-order learner that provides predictions
in terms of distributions on probability distributions. However, recent work
has revealed serious theoretical shortcomings for second-order predictors based
on loss minimisation. In this paper, we generalise these findings and prove a
more fundamental result: There seems to be no loss function that provides an
incentive for a second-order learner to faithfully represent its epistemic
uncertainty in the same manner as proper scoring rules do for standard
(first-order) learners. As a main mathematical tool to prove this result, we
introduce the generalised notion of second-order scoring rules.
- Abstract(参考訳): 正確な確率的予測器は、適切なスコアリングルールを損失関数として経験的リスク最小化を通じて訓練できることはよく知られている。
このような学習者は、予測の不確実性(aleatoric uncertainty of predictions)を捉えるが、近年、学習者がその認識の不確実性、すなわち知識やデータの欠如によって引き起こされる不確実性を表現することを目的として、様々な機械学習手法が開発されている。
文献の新たな分野として,確率分布の分布を予測する二階学習者が提案されている。
しかし、最近の研究は損失最小化に基づく2次予測器の重大な理論的欠点を明らかにしている。
本稿では,これらの知見を一般化し,より基本的な結果を示す。二階学習者に対して,標準(一階学習者)に対する適切なスコアリングルールと同様に,認識的不確実性を忠実に表現するインセンティブを与える損失関数は存在しないように思われる。
この結果を証明するための主要な数学的ツールとして,二階得点規則の一般化概念を紹介する。
関連論文リスト
- Learning Latent Graph Structures and their Uncertainty [63.95971478893842]
グラフニューラルネットワーク(GNN)は、モデル精度を高めるために帰納バイアスとしてリレーショナル情報を使用する。
課題関連関係が不明なため,下流予測タスクを解きながら学習するためのグラフ構造学習手法が提案されている。
論文 参考訳(メタデータ) (2024-05-30T10:49:22Z) - Is Epistemic Uncertainty Faithfully Represented by Evidential Deep Learning Methods? [26.344949402398917]
本稿では,顕在的深層学習の新たな理論的考察について述べる。
これは二階損失関数の最適化の難しさを強調している。
第二次損失最小化における識別可能性と収束性の問題に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2024-02-14T10:07:05Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - On the Difficulty of Epistemic Uncertainty Quantification in Machine
Learning: The Case of Direct Uncertainty Estimation through Loss Minimisation [8.298716599039501]
不確かさの定量化は機械学習で注目を集めている。
後者は学習者の知識(知識の欠如)を指し、特に測定と定量化が難しいようである。
損失最小化は2次予測器では有効でないことを示す。
論文 参考訳(メタデータ) (2022-03-11T17:26:05Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Multi-label Chaining with Imprecise Probabilities [0.0]
本稿では,古典的マルチラベル連鎖法を拡張し,不正確な確率推定を行うための2つの戦略を提案する。
このような推定に利用できる主な理由は、(1)連鎖において高い不確実性が検出された場合に慎重な予測を行うこと、(2)連鎖の初期決定におけるバイアスを回避し、より正確な予測を行うことである。
両手法の信頼性を検証したラベルの欠落に関する実験結果から,精度の高いモデルが故障した場合の予測が困難である事例に対して,本手法が関連する注意を喚起することを示す。
論文 参考訳(メタデータ) (2021-07-15T16:43:31Z) - Exploring Uncertainty in Deep Learning for Construction of Prediction
Intervals [27.569681578957645]
深層学習における不確実性を探究し,予測区間を構築する。
不確実性ラベルなしで不確実性を学習できる特殊損失関数を設計した。
本手法は予測間隔の構成と不確実性推定とを関連付ける。
論文 参考訳(メタデータ) (2021-04-27T02:58:20Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。