論文の概要: EviNAM: Intelligibility and Uncertainty via Evidential Neural Additive Models
- arxiv url: http://arxiv.org/abs/2601.08556v1
- Date: Tue, 13 Jan 2026 13:41:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.217875
- Title: EviNAM: Intelligibility and Uncertainty via Evidential Neural Additive Models
- Title(参考訳): EviNAM:Evidential Neural Additive Modelによる信頼性と不確かさ
- Authors: Sören Schleibaum, Anton Frederik Thielmann, Julian Teusch, Benjamin Säfken, Jörg P. Müller,
- Abstract要約: EviNAMは、ニューラルネットワーク付加モデルの解釈可能性と原理的不確実性推定を統合する。
EviNAMは最先端の予測性能にマッチする。
- 参考スコア(独自算出の注目度): 3.493848466320577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligibility and accurate uncertainty estimation are crucial for reliable decision-making. In this paper, we propose EviNAM, an extension of evidential learning that integrates the interpretability of Neural Additive Models (NAMs) with principled uncertainty estimation. Unlike standard Bayesian neural networks and previous evidential methods, EviNAM enables, in a single pass, both the estimation of the aleatoric and epistemic uncertainty as well as explicit feature contributions. Experiments on synthetic and real data demonstrate that EviNAM matches state-of-the-art predictive performance. While we focus on regression, our method extends naturally to classification and generalized additive models, offering a path toward more intelligible and trustworthy predictions.
- Abstract(参考訳): 信頼性と正確な不確実性の推定は、信頼性の高い意思決定に不可欠である。
本稿では,ニューラル付加モデル (NAM) の解釈可能性と原理的不確実性推定を統合した顕在的学習の拡張であるEviNAMを提案する。
標準的なベイズニューラルネットワークや以前の明らかな方法とは異なり、EviNAMは単一のパスで、アレタリックおよびてんかんの不確実性の推定と明示的な特徴の寄与を可能にする。
合成および実データの実験は、EviNAMが最先端の予測性能と一致することを示した。
回帰に焦点をあてる一方で、本手法は自然に分類と一般化された加法モデルに拡張し、より知性が高く信頼に値する予測への道を提供する。
関連論文リスト
- Decoding Federated Learning: The FedNAM+ Conformal Revolution [0.16874375111244327]
FedNAM+は、ニューラルネットワーク付加モデル(NAM)と新しい共形予測手法を統合する、連合学習フレームワークである。
本手法では,勾配に基づく感度マップを用いた動的レベル調整手法を導入し,重要な入力特徴が予測に与える影響を同定する。
我々は、CTスキャン、MNIST、CIFARデータセットの実験を通して、我々のアプローチを検証し、損失を最小限に抑えながら高い予測精度を示す。
論文 参考訳(メタデータ) (2025-06-22T02:06:14Z) - Enhancing Uncertainty Estimation and Interpretability via Bayesian Non-negative Decision Layer [55.66973223528494]
本研究では, ディープニューラルネットワークを条件付きベイズ非負因子分析として再構成したベイズ非負決定層(BNDL)を開発した。
BNDLは複雑な依存関係をモデル化し、堅牢な不確実性推定を提供する。
また,BNDLが効果的に不整合学習を達成できるという理論的保証も提供する。
論文 参考訳(メタデータ) (2025-05-28T10:23:34Z) - Epistemic Wrapping for Uncertainty Quantification [6.967551514640606]
不確実性推定は機械学習、特に分類タスクにおいて重要である。
分類における不確実性評価を改善することを目的とした,新しいエピステミック・ラッピング手法を提案する。
論文 参考訳(メタデータ) (2025-05-04T22:15:56Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - When in Doubt: Neural Non-Parametric Uncertainty Quantification for
Epidemic Forecasting [70.54920804222031]
既存の予測モデルは不確実な定量化を無視し、誤校正予測をもたらす。
不確実性を考慮した時系列予測のためのディープニューラルネットワークの最近の研究にもいくつかの制限がある。
本稿では,予測タスクを確率的生成過程としてモデル化し,EPIFNPと呼ばれる機能的ニューラルプロセスモデルを提案する。
論文 参考訳(メタデータ) (2021-06-07T18:31:47Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Learning Partially Known Stochastic Dynamics with Empirical PAC Bayes [12.44342023476206]
本稿では,これらのモデルの予測精度を3段階で向上させる手法を提案する。
実験では、このレシピは、部分的およびノイズの多い事前知識を改良されたモデル適合に効果的に翻訳することを示した。
論文 参考訳(メタデータ) (2020-06-17T14:47:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。