論文の概要: Beyond Accuracy: Are Time Series Foundation Models Well-Calibrated?
- arxiv url: http://arxiv.org/abs/2510.16060v1
- Date: Fri, 17 Oct 2025 01:41:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.817013
- Title: Beyond Accuracy: Are Time Series Foundation Models Well-Calibrated?
- Title(参考訳): 正確性を超えて - 時系列モデルは十分に校正されているか?
- Authors: Coen Adler, Yuxin Chang, Felix Draxler, Samar Abdi, Padhraic Smyth,
- Abstract要約: 近年の5つの時系列基礎モデルと2つの競争ベースラインの校正関連特性について検討する。
時系列基礎モデルはベースラインモデルよりも一貫して優れており、体系的に過度か過小評価されない傾向にある。
- 参考スコア(独自算出の注目度): 12.224456571251155
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent development of foundation models for time series data has generated considerable interest in using such models across a variety of applications. Although foundation models achieve state-of-the-art predictive performance, their calibration properties remain relatively underexplored, despite the fact that calibration can be critical for many practical applications. In this paper, we investigate the calibration-related properties of five recent time series foundation models and two competitive baselines. We perform a series of systematic evaluations assessing model calibration (i.e., over- or under-confidence), effects of varying prediction heads, and calibration under long-term autoregressive forecasting. We find that time series foundation models are consistently better calibrated than baseline models and tend not to be either systematically over- or under-confident, in contrast to the overconfidence often seen in other deep learning models.
- Abstract(参考訳): 最近の時系列データの基礎モデルの開発は、様々なアプリケーションでそのようなモデルを使うことに大きな関心を惹き付けている。
基礎モデルは最先端の予測性能を実現するが、キャリブレーションが多くの実用化に不可欠であるにもかかわらず、そのキャリブレーション特性は比較的過小評価されている。
本稿では,最近の5つの時系列基礎モデルと2つの競争ベースラインの校正関連特性について検討する。
モデルキャリブレーション(すなわち、過信または過信)、各種予測ヘッドの効果、長期自己回帰予測におけるキャリブレーションの系統評価を行う。
時系列基礎モデルは、ベースラインモデルよりも一貫して校正され、他のディープラーニングモデルでよく見られる過信とは対照的に、体系的に過信または過信しない傾向にある。
関連論文リスト
- ARIES: Relation Assessment and Model Recommendation for Deep Time Series Forecasting [54.57031153712623]
ARIESは時系列特性とモデリング戦略の関係を評価するためのフレームワークである。
実世界の時系列に解釈可能な提案を提供することのできる,最初の深層予測モデルレコメンデータを提案する。
論文 参考訳(メタデータ) (2025-09-07T13:57:14Z) - Measuring Pre-training Data Quality without Labels for Time Series Foundation Models [10.64362760848387]
基礎モデルで学習した表現空間の質を評価するための新しい尺度であるコントラスト精度を導入する。
実験の結果,提案手法とモデル精度との正の相関関係を下流タスクの集合上で明らかにした。
論文 参考訳(メタデータ) (2024-12-09T10:38:30Z) - Deep Time Series Models: A Comprehensive Survey and Benchmark [60.742416934632416]
時系列は、その複雑でダイナミックな性質のために固有の課題を提示する。
近年、時系列コミュニティで顕著なブレークスルーが見られた。
多様な分析タスクのためのディープ時系列モデルの公正なベンチマークとして、時系列ライブラリ(TSLib)をリリースします。
論文 参考訳(メタデータ) (2024-07-18T08:31:55Z) - Calibrating Large Language Models with Sample Consistency [76.23956851098598]
本稿では,複数サンプルモデル生成系の分布から信頼度を導出する可能性について,一貫性の3つの尺度を用いて検討する。
その結果、一貫性に基づくキャリブレーション手法は、既存のポストホック手法よりも優れていることがわかった。
種々のLMの特性に合わせて,キャリブレーションに適した整合性指標を選択するための実用的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-02-21T16:15:20Z) - Predictive Churn with the Set of Good Models [61.00058053669447]
本稿では,予測的不整合という2つの無関係な概念の関連性について考察する。
予測多重性(英: predictive multiplicity)は、個々のサンプルに対して矛盾する予測を生成するモデルである。
2つ目の概念である予測チャーン(英: predictive churn)は、モデル更新前後の個々の予測の違いを調べるものである。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - On the Calibration of Large Language Models and Alignment [63.605099174744865]
信頼性キャリブレーションは、ディープモデルの信頼性を高める重要なツールである。
構築プロセス全体を通して、アライメント言語モデルの校正を体系的に検討する。
我々の研究は、人気のあるLCMが十分に校正されているか、トレーニングプロセスがモデルの校正にどのように影響するかに光を当てています。
論文 参考訳(メタデータ) (2023-11-22T08:57:55Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Calibration in Deep Learning: A Survey of the State-of-the-Art [3.8305839404070223]
ディープニューラルネットワークのキャリブレーションは、安全クリティカルなアプリケーションにおいて、信頼性が高く堅牢なAIシステムを構築する上で重要な役割を果たす。
近年の研究では、予測能力の高い現代のニューラルネットワークは、キャリブレーションが不十分であり、信頼性の低いモデル予測を生成することが示されている。
論文 参考訳(メタデータ) (2023-08-02T15:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。