論文の概要: ProbFM: Probabilistic Time Series Foundation Model with Uncertainty Decomposition
- arxiv url: http://arxiv.org/abs/2601.10591v1
- Date: Thu, 15 Jan 2026 17:02:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.238816
- Title: ProbFM: Probabilistic Time Series Foundation Model with Uncertainty Decomposition
- Title(参考訳): ProbFM: 不確実性分解を伴う確率的時系列基礎モデル
- Authors: Arundeep Chinta, Lucas Vinh Tran, Jay Katukuri,
- Abstract要約: Time Series Foundation Models (TSFMs) はゼロショット財務予測のための有望なアプローチとして登場した。
現在のアプローチでは、制限的な分布仮定に依存したり、異なる不確実性の源を詳述したり、原則化された校正機構が欠如している。
本稿では,Deep Evidential Regression (DER) を利用した変圧器を用いた新しい確率的フレームワーク ProbFM を提案する。
- 参考スコア(独自算出の注目度): 0.12489632787815884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time Series Foundation Models (TSFMs) have emerged as a promising approach for zero-shot financial forecasting, demonstrating strong transferability and data efficiency gains. However, their adoption in financial applications is hindered by fundamental limitations in uncertainty quantification: current approaches either rely on restrictive distributional assumptions, conflate different sources of uncertainty, or lack principled calibration mechanisms. While recent TSFMs employ sophisticated techniques such as mixture models, Student's t-distributions, or conformal prediction, they fail to address the core challenge of providing theoretically-grounded uncertainty decomposition. For the very first time, we present a novel transformer-based probabilistic framework, ProbFM (probabilistic foundation model), that leverages Deep Evidential Regression (DER) to provide principled uncertainty quantification with explicit epistemic-aleatoric decomposition. Unlike existing approaches that pre-specify distributional forms or require sampling-based inference, ProbFM learns optimal uncertainty representations through higher-order evidence learning while maintaining single-pass computational efficiency. To rigorously evaluate the core DER uncertainty quantification approach independent of architectural complexity, we conduct an extensive controlled comparison study using a consistent LSTM architecture across five probabilistic methods: DER, Gaussian NLL, Student's-t NLL, Quantile Loss, and Conformal Prediction. Evaluation on cryptocurrency return forecasting demonstrates that DER maintains competitive forecasting accuracy while providing explicit epistemic-aleatoric uncertainty decomposition. This work establishes both an extensible framework for principled uncertainty quantification in foundation models and empirical evidence for DER's effectiveness in financial applications.
- Abstract(参考訳): 時系列ファウンデーションモデル(TSFM)は、ゼロショットの財務予測のための有望なアプローチとして現れ、強力な転送可能性とデータ効率の向上を示している。
しかし、彼らの金融応用への導入は、不確実性定量化の基本的な限界によって妨げられている: 現在のアプローチは、限定的な分布の仮定に依存するか、異なる不確実性の源を分割するか、または原則化された校正機構が欠如している。
近年のTSFMでは、混合モデル、学生のt分布、等角予測といった高度な技術が採用されているが、理論的な基底を持つ不確実性分解を提供するという中核的な課題に対処することはできなかった。
ProbFM(probabilistic foundation model, ProbFM)は,Deep Evidential Regression(DER)を活用して,明らかなてんかん・てんかん分解を伴う原理的不確実性定量化を提供する。
分布形式を事前に指定したりサンプリングベースの推論を必要とする既存のアプローチとは異なり、ProbFMはシングルパス計算効率を維持しながら高次のエビデンス学習を通じて最適な不確実性表現を学習する。
アーキテクチャの複雑さに依存しない中核DER不確実性定量化手法を厳密に評価するために,我々は, DER, Gaussian NLL, Student's-t NLL, Quantile Loss, Conformal Predictionの5つの確率的手法で一貫したLSTMアーキテクチャを用いて, 広範囲に制御された比較研究を行う。
暗号通貨のリターン予測の評価は、DERが明示的な疫学・疫学的不確実性分解を提供しながら、競争予測の精度を維持していることを示している。
この研究は、ファンデーションモデルにおける原則的不確実性定量化のための拡張可能なフレームワークと、DERが金融アプリケーションで有効であることを示す実証的な証拠の両方を確立する。
関連論文リスト
- Uncertainty Quantification for Deep Regression using Contextualised Normalizing Flows [1.8899300124593648]
本稿では,予測間隔と完全条件付き予測分布の両方を生成する新しい不確実性定量化手法であるMCNFを紹介する。
MCNFは、基礎となるトレーニングされた予測モデル上で動作するため、予測モデルの再トレーニングは不要である。
我々は、MCNFに基づく不確実性推定が十分に校正され、最先端の不確実性定量化手法と競合し、下流の意思決定タスクに対してよりリッチな情報を提供する実験的な証拠を提供する。
論文 参考訳(メタデータ) (2025-11-30T11:08:40Z) - Bridging the Gap Between Bayesian Deep Learning and Ensemble Weather Forecasts [100.26854618129039]
天気予報は、大気のカオス的な性質によって根本的に挑戦されている。
ベイジアンディープラーニング(BDL)の最近の進歩は、有望だがしばしば非接続な代替手段を提供する。
気象予報のための統合型BDLフレームワークにより,これらのパラダイムを橋渡しする。
論文 参考訳(メタデータ) (2025-11-18T07:49:52Z) - Credal Ensemble Distillation for Uncertainty Quantification [12.36665123584814]
本研究では, 深部アンサンブルを1つのモデル CREDIT に圧縮し, 分類処理を行うフレームワークとして, クレダルアンサンブル蒸留法を提案する。
CEDは、いくつかの既存のベースラインよりも優れた、あるいは同等の不確実性推定を実現し、深いアンサンブルよりも推論オーバーヘッドを大幅に削減する。
論文 参考訳(メタデータ) (2025-11-14T14:53:42Z) - The Illusion of Certainty: Uncertainty quantification for LLMs fails under ambiguity [48.899855816199484]
そこで本研究では,第1の曖昧な質問応答(QA)データセットであるMAQA*とAmbigQA*を紹介する。
予測分布とアンサンブルに基づく推定器は、あいまいさの下では基本的に限定的であることを示す。
論文 参考訳(メタデータ) (2025-11-06T14:46:35Z) - RDIT: Residual-based Diffusion Implicit Models for Probabilistic Time Series Forecasting [4.140149411004857]
RDITは、点推定と残差に基づく条件拡散と双方向のMambaネットワークを組み合わせたプラグアンドプレイフレームワークである。
RDITは, 強いベースラインに比べてCRPSの低下, 高速推論, カバレッジの向上を実現している。
論文 参考訳(メタデータ) (2025-09-02T14:06:29Z) - Generalized Gaussian Temporal Difference Error for Uncertainty-aware Reinforcement Learning [0.19418036471925312]
深部強化学習における一般化されたガウス誤差モデリングのための新しい枠組みを提案する。
我々はデータ依存型アレタリック不確実性の推定と緩和を改善する。
ポリシー勾配アルゴリズムによる実験は、大幅な性能向上を示す。
論文 参考訳(メタデータ) (2024-08-05T08:12:25Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。