論文の概要: Density-Informed Pseudo-Counts for Calibrated Evidential Deep Learning
- arxiv url: http://arxiv.org/abs/2602.01477v1
- Date: Sun, 01 Feb 2026 22:57:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.807693
- Title: Density-Informed Pseudo-Counts for Calibrated Evidential Deep Learning
- Title(参考訳): 正当性学習のための密度インフォームド擬似関数
- Authors: Pietro Carlotti, Nevena Gligić, Arya Farahi,
- Abstract要約: Evidential Deep Learning (EDL)は、ニューラルネットワークによってパラメータ化されたディリクレ分布を通じて予測の不確実性をモデル化する不確実性認識分類のための一般的なフレームワークである。
EDLトレーニングは階層型ベイズモデルにおいて,擬似的様相を呈するアモータライズされた変分推論に対応していることを示す。
本稿では,不確実性の程度からクラス予測を分離する新しいパラメトリゼーションであるDIP-EDLを導入する。
- 参考スコア(独自算出の注目度): 1.9435397960631862
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evidential Deep Learning (EDL) is a popular framework for uncertainty-aware classification that models predictive uncertainty via Dirichlet distributions parameterized by neural networks. Despite its popularity, its theoretical foundations and behavior under distributional shift remain poorly understood. In this work, we provide a principled statistical interpretation by proving that EDL training corresponds to amortized variational inference in a hierarchical Bayesian model with a tempered pseudo-likelihood. This perspective reveals a major drawback: standard EDL conflates epistemic and aleatoric uncertainty, leading to systematic overconfidence on out-of-distribution (OOD) inputs. To address this, we introduce Density-Informed Pseudo-count EDL (DIP-EDL), a new parametrization that decouples class prediction from the magnitude of uncertainty by separately estimating the conditional label distribution and the marginal covariate density. This separation preserves evidence in high-density regions while shrinking predictions toward a uniform prior for OOD data. Theoretically, we prove that DIP-EDL achieves asymptotic concentration. Empirically, we show that our method enhances interpretability and improves robustness and uncertainty calibration under distributional shift.
- Abstract(参考訳): Evidential Deep Learning (EDL)は、ニューラルネットワークによってパラメータ化されたディリクレ分布を通じて予測の不確実性をモデル化する不確実性認識分類のための一般的なフレームワークである。
その人気にもかかわらず、分布シフトの下での理論的基礎と振舞いはいまだに理解されていない。
本研究では,EDLトレーニングが擬似類似性を持つ階層型ベイズモデルにおいて,償却変分推論に対応することを証明し,その原理的統計的解釈を提供する。
標準EDLはてんかんとアレタリック不確実性を混同し、アウト・オブ・ディストリビューション(OOD)入力に対する体系的な過信を引き起こす。
そこで本研究では,条件付きラベル分布と境界共変量密度を別々に推定することにより,不確実性の大きさからクラス予測を分離する手法であるDIP-EDLを導入する。
この分離は、OODデータに対する均一な予測を縮小しつつ、高密度領域における証拠を保存する。
理論的には、DIP-EDLが漸近性濃度に達することを証明している。
実験により,本手法は解釈可能性を高め,分散シフト下でのロバスト性および不確実性校正を改善することを示す。
関連論文リスト
- Epistemic Uncertainty Quantification for Pre-trained VLMs via Riemannian Flow Matching [3.0708725114491293]
視覚言語モデル(VLM)は本質的に決定論的であり、不確実性を定量化する固有のメカニズムが欠如している。
我々は,低密度領域がモデル無知を意味するてんかん不確実性の指標として,埋め込みの負の対数密度を理論的に動機付けている。
我々は,REPVLMが不確実性と予測誤差のほぼ完全な相関を達成し,既存のベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2026-01-29T12:58:42Z) - Bridging the Gap Between Bayesian Deep Learning and Ensemble Weather Forecasts [100.26854618129039]
天気予報は、大気のカオス的な性質によって根本的に挑戦されている。
ベイジアンディープラーニング(BDL)の最近の進歩は、有望だがしばしば非接続な代替手段を提供する。
気象予報のための統合型BDLフレームワークにより,これらのパラダイムを橋渡しする。
論文 参考訳(メタデータ) (2025-11-18T07:49:52Z) - Revisiting Essential and Nonessential Settings of Evidential Deep Learning [70.82728812001807]
Evidential Deep Learning (EDL) は不確実性推定の新しい手法である。
本報告では,EDLの簡易かつ効果的な拡張型であるRe-EDLを提案する。
論文 参考訳(メタデータ) (2024-10-01T04:27:07Z) - Inflationary Flows: Calibrated Bayesian Inference with Diffusion-Based Models [0.0]
本稿では,拡散モデルを用いてベイズ推定を行う方法を示す。
本稿では,新しいノイズスケジュールを用いて,標準的なDBMトレーニングを通じてそのようなマップを学習する方法を示す。
その結果は、低次元の潜在空間上で一意に定義される非常に表現性の高い生成モデルのクラスである。
論文 参考訳(メタデータ) (2024-07-11T19:58:19Z) - Are Uncertainty Quantification Capabilities of Evidential Deep Learning a Mirage? [35.15844215216846]
EDL法は,特定の目的関数を最小化することにより,予測分布上のメタ分布を学習する。
近年の研究では、学習した不確実性は信頼できないと結論づける既存の方法の限界が特定されている。
本研究では,多種多様な目的関数を統一することにより,多種多様なEDL手法の挙動をより深く理解する。
我々は,EDL法が下流タスクに実証的に有効であるとしても,不確実な定量化能力に乏しいにもかかわらず,これは発生すると結論付けた。
論文 参考訳(メタデータ) (2024-02-09T03:23:39Z) - Excess risk analysis for epistemic uncertainty with application to
variational inference [110.4676591819618]
我々は、未知の分布からデータが生成される頻繁なセッティングにおいて、新しいEU分析を提示する。
一般化能力と、予測分布の分散やエントロピーなど、広く使用されているEUの測定値との関係を示す。
本研究では,PAC-ベイジアン理論に基づく予測とEU評価性能を直接制御する新しい変分推論を提案する。
論文 参考訳(メタデータ) (2022-06-02T12:12:24Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。