論文の概要: Are Time-Indexed Foundation Models the Future of Time Series Imputation?
- arxiv url: http://arxiv.org/abs/2511.05980v1
- Date: Sat, 08 Nov 2025 11:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.692659
- Title: Are Time-Indexed Foundation Models the Future of Time Series Imputation?
- Title(参考訳): 時系列インプットモデルは時系列インプットの未来か?
- Authors: Etienne Le Naour, Tahar Nabil, Adrien Petralia, Ghislain Agoua,
- Abstract要約: TabPFN-TS と MoTM の2つのモデルは、タイムインデクシングされた基礎モデルのファミリーにそれらを配置する共通の哲学を共有している。
本稿では,これらのモデルを用いたゼロショット計算のための大規模な実験的研究について述べる。
- 参考スコア(独自算出の注目度): 0.6999740786886536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models for time series imputation remain largely unexplored. Recently, two such models, TabPFN-TS and MoTM, have emerged. These models share a common philosophy that places them within the family of time-indexed foundation models. This paper presents the first large-scale empirical study of these models for zero-shot imputation, which enables missing value recovery without retraining across a wide range of scenarios. We conduct extensive univariate experiments across 33 out-of-domain datasets (approximately 1.3M imputation windows) and evaluate their ability to integrate covariates at inference time to improve accuracy without fine-tuning. Our results demonstrate that time-indexed foundation models are a powerful and practical step toward achieving general-purpose, zero-shot imputation for real-world time series.
- Abstract(参考訳): 時系列計算のための基礎モデルは、ほとんど未解明のままである。
最近、TabPFN-TSとMoTMという2つのモデルが登場した。
これらのモデルは、タイムインデクシングされた基礎モデルのファミリーにそれらを配置する共通の哲学を共有している。
本稿では,これらのモデルを用いたゼロショット計算のための大規模な実験的検討を行った。
我々は、33のドメイン外のデータセット(約1.3Mインプットウィンドウ)にわたる広範な一変量実験を行い、推論時に共変量を統合する能力を評価し、微調整なしで精度を向上する。
本研究は,実時間時系列の汎用的ゼロショット計算の実現に向けて,時系列ベースモデルが強力かつ実践的なステップであることを実証する。
関連論文リスト
- How Foundational are Foundation Models for Time Series Forecasting? [2.692427265051276]
時系列データの本質的な多様性は、基礎モデルが効果的なモデル構築にはあまり適さないことを論じる。
時系列基礎モデルのゼロショット能力は、事前訓練された特定のドメインに大きく影響され、結びついていることが示される。
論文 参考訳(メタデータ) (2025-10-01T10:25:43Z) - Estimating Time Series Foundation Model Transferability via In-Context Learning [74.65355820906355]
時系列基礎モデル(TSFM)は、大規模な事前訓練を通じて強力なゼロショット予測を提供する。
微調整は、公開データに制限のあるドメインのパフォーマンス向上に依然として不可欠である。
モデル選択をコンテキスト内学習問題として再キャストする転送可能性推定フレームワークであるTimeTicを紹介する。
論文 参考訳(メタデータ) (2025-09-28T07:07:13Z) - MoTM: Towards a Foundation Model for Time Series Imputation based on Continuous Modeling [0.0]
暗黙的ニューラル表現(INR)を活用することでギャップを埋める第一歩を提案する。
MoTMは、それぞれ異なる時系列のファミリーに基づいて独立に訓練されたINRの基底と、推論時に観察された文脈に適応する尾根回帰器を結合する。
多様な計算シナリオにまたがる堅牢なドメイン内一般化とドメイン外一般化を実証する。
論文 参考訳(メタデータ) (2025-07-17T15:16:30Z) - GIFT-Eval: A Benchmark For General Time Series Forecasting Model Evaluation [90.53485251837235]
時系列基礎モデルはゼロショット予測に優れ、明示的なトレーニングなしで多様なタスクを処理する。
GIFT-Evalは、多様なデータセットに対する評価を促進するための先駆的なベンチマークである。
GIFT-Evalには、144,000の時系列と17700万のデータポイントの23のデータセットが含まれている。
論文 参考訳(メタデータ) (2024-10-14T11:29:38Z) - ViTime: Foundation Model for Time Series Forecasting Powered by Vision Intelligence [49.60944381032587]
時系列予測(TSF)は、電力やエネルギー、輸送など、様々な分野で大きな実践的価値を持っている。
TSFモデルは長年、問題固有であり、アプリケーションの一般化性に欠けることが知られている。
本稿では,視覚情報を利用したViTimeフレームワークを初めて提案する。
論文 参考訳(メタデータ) (2024-07-10T02:11:01Z) - MOMENT: A Family of Open Time-series Foundation Models [19.0845213853369]
汎用時系列解析のためのオープンソース基盤モデルのファミリであるMOMENTを紹介する。
我々は、タイムシリーズパイル(Time series Pile)と呼ばれる公開時系列のコレクションをコンパイルし、時系列固有の課題に体系的に取り組みます。
我々は、様々なタスクやデータセットに関する時系列基礎モデルを、限られた監督設定で評価するためのベンチマークを設計するための最近の作業に基づいて構築する。
論文 参考訳(メタデータ) (2024-02-06T10:48:46Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。