論文の概要: Predictive Uncertainty Quantification via Risk Decompositions for
Strictly Proper Scoring Rules
- arxiv url: http://arxiv.org/abs/2402.10727v1
- Date: Fri, 16 Feb 2024 14:40:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 15:52:00.247092
- Title: Predictive Uncertainty Quantification via Risk Decompositions for
Strictly Proper Scoring Rules
- Title(参考訳): 厳密なスコーリングルールのためのリスク分解による予測不確かさ定量化
- Authors: Nikita Kotelevskii, Maxim Panov
- Abstract要約: 統計的推論に根ざした一般的な枠組みを導入し、新しい不確実性対策を作成し、それらの相互関係を明らかにする。
この枠組みにベイズ的推論を組み込むことを提案し、提案した近似の性質について議論する。
- 参考スコア(独自算出の注目度): 8.334458709669125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distinguishing sources of predictive uncertainty is of crucial importance in
the application of forecasting models across various domains. Despite the
presence of a great variety of proposed uncertainty measures, there are no
strict definitions to disentangle them. Furthermore, the relationship between
different measures of uncertainty quantification remains somewhat unclear. In
this work, we introduce a general framework, rooted in statistical reasoning,
which not only allows the creation of new uncertainty measures but also
clarifies their interrelations. Our approach leverages statistical risk to
distinguish aleatoric and epistemic uncertainty components and utilizes proper
scoring rules to quantify them. To make it practically tractable, we propose an
idea to incorporate Bayesian reasoning into this framework and discuss the
properties of the proposed approximation.
- Abstract(参考訳): 予測の不確実性の源を断ち切ることは、様々な領域にわたる予測モデルの適用において重要である。
様々な不確実性対策が提案されているにもかかわらず、それらを解き放つ厳密な定義は存在しない。
さらに、不確実性定量化の異なる尺度間の関係は、いまだに不明である。
本研究では,統計推論に根ざした一般的な枠組みを導入し,新たな不確実性尺度の作成を可能にするだけでなく,それらの相互関係を明確化する。
本手法では,統計的リスクを活用し,認識的不確実性成分を識別し,適切なスコアリングルールを用いて定量化を行う。
この枠組みにベイズ的推論を組み込むことを提案し,提案した近似の性質について議論する。
関連論文リスト
- One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Second-Order Uncertainty Quantification: A Distance-Based Approach [11.539320505465149]
本稿では,2次分布に基づく予測不確実性に対する有意義な不確実性尺度が従うべきという形式的基準を提案する。
これらの基準を考慮に入れた不確実性対策を開発するための一般的な枠組みを提供し、ワッサーシュタイン距離に基づくインスタンス化を提供する。
論文 参考訳(メタデータ) (2023-12-02T01:21:41Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Model-free generalized fiducial inference [0.0]
本稿では,不正確な確率的予測推定のためのモデルフリー統計フレームワークの提案と開発を行う。
このフレームワークは、タイプ1エラーの有限サンプル制御を提供する予測セットの形式での不確実性定量化を促進する。
モデルフリー不正確なフレームワークに対する正確な確率近似の理論的および経験的特性について考察する。
論文 参考訳(メタデータ) (2023-07-24T01:58:48Z) - Integrating Uncertainty into Neural Network-based Speech Enhancement [27.868722093985006]
時間周波数領域における監視されたマスキングアプローチは、ディープニューラルネットワークを使用して乗法マスクを推定し、クリーンな音声を抽出することを目的としている。
これにより、信頼性の保証や尺度を使わずに、各入力に対する単一の見積もりが導かれる。
クリーン音声推定における不確実性モデリングの利点について検討する。
論文 参考訳(メタデータ) (2023-05-15T15:55:12Z) - Gradient-based Uncertainty Attribution for Explainable Bayesian Deep
Learning [38.34033824352067]
ディープラーニングモデルによる予測は、データ摂動、敵攻撃、アウト・オブ・ディストリビューション・インプットの傾向が強い。
本稿では,正確な不確実性定量化を行うための説明可能かつ実用的なベイズ深層学習法を提案する。
論文 参考訳(メタデータ) (2023-04-10T19:14:15Z) - What is Flagged in Uncertainty Quantification? Latent Density Models for
Uncertainty Categorization [68.15353480798244]
不確実性定量化(UQ)は、信頼できる機械学習モデルを作成する上で不可欠である。
近年、疑わしい事例にフラグを立てるUQ手法が急上昇している。
分類タスクにおけるUQ手法によってフラグ付けされた不確実な例を分類する枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-11T19:47:00Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Ensemble-based Uncertainty Quantification: Bayesian versus Credal
Inference [0.0]
我々は、不確実性定量化に対するアンサンブルに基づくアプローチを検討する。
具体的には,いわゆる干潟集合に基づくベイズ的手法とアプローチに着目する。
拒否オプションを用いた分類に関する実証的研究において, 対応する尺度の有効性を評価し, 比較した。
論文 参考訳(メタデータ) (2021-07-21T22:47:24Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - The Aleatoric Uncertainty Estimation Using a Separate Formulation with
Virtual Residuals [51.71066839337174]
既存の手法では、ターゲット推定における誤差を定量化できるが、過小評価する傾向がある。
本稿では,信号とその不確かさを推定するための新たな分離可能な定式化を提案し,オーバーフィッティングの影響を回避した。
提案手法は信号および不確実性推定のための最先端技術より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-03T12:11:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。