論文の概要: Time Series Foundation Models: Benchmarking Challenges and Requirements
- arxiv url: http://arxiv.org/abs/2510.13654v1
- Date: Wed, 15 Oct 2025 15:15:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.73019
- Title: Time Series Foundation Models: Benchmarking Challenges and Requirements
- Title(参考訳): 時系列基礎モデル: ベンチマークの課題と要件
- Authors: Marcel Meyer, Sascha Kaltenpoth, Kevin Zalipski, Oliver Müller,
- Abstract要約: 時系列基礎モデル(TSFM)は、時系列予測の新しいパラダイムである。
TSFMの評価は、より広範なトレーニングセットと同様に、整合性ベンチマークデータの確保がより困難になるため、難しい。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time Series Foundation Models (TSFMs) represent a new paradigm for time series forecasting, offering zero-shot forecasting capabilities without the need for domain-specific pre-training or fine-tuning. However, as with Large Language Models (LLMs), evaluating TSFMs is tricky, as with ever more extensive training sets, it becomes more and more challenging to ensure the integrity of benchmarking data. Our investigation of existing TSFM evaluation highlights multiple challenges, ranging from the representativeness of the benchmark datasets, over the lack of spatiotemporal evaluation, to risks of information leakage due to overlapping and obscure datasets, and the memorization of global patterns caused by external shocks like economic crises or pandemics. Our findings reveal widespread confusion regarding data partitions, risking inflated performance estimates and incorrect transfer of global knowledge to local time series. We argue for the development of robust evaluation methodologies to prevent pitfalls already observed in LLM and classical time series benchmarking, and call upon the research community to design new, principled approaches, such as evaluations on truly out-of-sample future data, to safeguard the integrity of TSFM assessment.
- Abstract(参考訳): 時系列基礎モデル(TSFM)は時系列予測の新しいパラダイムであり、ドメイン固有の事前トレーニングや微調整を必要とせずにゼロショット予測機能を提供する。
しかし、Large Language Models (LLMs) と同様に、TSFMを評価するのは難しい。
既存のTSFM評価は、ベンチマークデータセットの代表性、時空間評価の欠如、重複や不明瞭なデータセットによる情報漏洩のリスク、経済危機やパンデミックなどの外部ショックによるグローバルなパターンの記憶など、さまざまな課題を浮き彫りにしている。
以上の結果から,データ分割の混乱,膨らませた性能評価のリスク,グローバルな知識の局所的時系列への不正確な移動,などが明らかとなった。
LLMや古典的時系列ベンチマークですでに見られている落とし穴を防ぐための堅牢な評価手法の開発を議論し、TSFM評価の完全性を守るために、真にサンプル外の将来データの評価のような、新しい原則的なアプローチを研究コミュニティに求めている。
関連論文リスト
- A Unified Frequency Domain Decomposition Framework for Interpretable and Robust Time Series Forecasting [81.73338008264115]
時系列予測の現在のアプローチは、時間領域であれ周波数領域であれ、主に線形層やトランスフォーマーに基づいたディープラーニングモデルを使用する。
本稿では,多種多様な時系列を数学的に抽象化する統合周波数領域分解フレームワークFIREを提案する。
火は長期予測ベンチマークで最先端のモデルを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-11T09:59:25Z) - Are Time-Series Foundation Models Deployment-Ready? A Systematic Study of Adversarial Robustness Across Domains [23.9530536685668]
Time Series Foundation Models (TSFM) は、大規模でクロスドメインなデータに基づいて事前訓練されており、さらなるトレーニングをすることなく、新しいシナリオでゼロショット予測を行うことができる。
TSFMは逆入力摂動に対して堅牢か?
これらの摂動は、中間者攻撃やデータ中毒に利用することができる。
論文 参考訳(メタデータ) (2025-05-26T01:24:11Z) - Empowering Time Series Analysis with Synthetic Data: A Survey and Outlook in the Era of Foundation Models [104.17057231661371]
時系列解析は複雑なシステムの力学を理解するために重要である。
基本モデルの最近の進歩はタスク非依存の時系列基礎モデル (TSFM) と大規模言語モデルベース時系列モデル (TSLLM) につながっている。
彼らの成功は、規制、多様性、品質、量制約のために構築が困難である、大規模で多様で高品質なデータセットに依存する。
本調査では,TSFMとTLLLMの合成データの総合的なレビュー,データ生成戦略の分析,モデル事前学習におけるそれらの役割,微調整,評価,今後の研究方向性の特定について述べる。
論文 参考訳(メタデータ) (2025-03-14T13:53:46Z) - TS-RAG: Retrieval-Augmented Generation based Time Series Foundation Models are Stronger Zero-Shot Forecaster [14.512119661418522]
時系列予測のための検索拡張生成フレームワークTS-RAGを提案する。
具体的には、TS-RAGはトレーニング済みの時系列エンコーダを利用して、専用の知識ベースから意味的に関連するセグメントを検索する。
TS-RAG は最先端のゼロショット予測性能を達成し,既存の TSFM を6.84% まで上回った。
論文 参考訳(メタデータ) (2025-03-06T16:48:48Z) - Foundation Models for Time Series Analysis: A Tutorial and Survey [70.43311272903334]
ファンデーションモデル(FM)は、時系列分析のためのモデル設計のパラダイムを根本的に変えてきた。
本調査は,時系列解析のためのFMの概要を包括的かつ最新のものにすることを目的としている。
論文 参考訳(メタデータ) (2024-03-21T10:08:37Z) - Can LMs Generalize to Future Data? An Empirical Analysis on Text
Summarization [50.20034493626049]
最近の学習済み言語モデル(PLM)は、既存の抽象的な要約データセットにおいて有望な結果をもたらす。
既存の要約ベンチマークは、標準の事前学習コーパスと微調整データセットと時間的に重複する。
要約モデルに格納されたパラメトリック知識は、将来のデータに対する生成した要約の忠実度に大きく影響することを示す。
論文 参考訳(メタデータ) (2023-05-03T08:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。