論文の概要: MoTM: Towards a Foundation Model for Time Series Imputation based on Continuous Modeling
- arxiv url: http://arxiv.org/abs/2507.13207v1
- Date: Thu, 17 Jul 2025 15:16:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.55186
- Title: MoTM: Towards a Foundation Model for Time Series Imputation based on Continuous Modeling
- Title(参考訳): MoTM:継続的モデリングに基づく時系列インプットの基礎モデルを目指して
- Authors: Etienne Le Naour, Tahar Nabil, Ghislain Agoua,
- Abstract要約: 暗黙的ニューラル表現(INR)を活用することでギャップを埋める第一歩を提案する。
MoTMは、それぞれ異なる時系列のファミリーに基づいて独立に訓練されたINRの基底と、推論時に観察された文脈に適応する尾根回帰器を結合する。
多様な計算シナリオにまたがる堅牢なドメイン内一般化とドメイン外一般化を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have witnessed a growing interest for time series foundation models, with a strong emphasis on the forecasting task. Yet, the crucial task of out-of-domain imputation of missing values remains largely underexplored. We propose a first step to fill this gap by leveraging implicit neural representations (INRs). INRs model time series as continuous functions and naturally handle various missing data scenarios and sampling rates. While they have shown strong performance within specific distributions, they struggle under distribution shifts. To address this, we introduce MoTM (Mixture of Timeflow Models), a step toward a foundation model for time series imputation. Building on the idea that a new time series is a mixture of previously seen patterns, MoTM combines a basis of INRs, each trained independently on a distinct family of time series, with a ridge regressor that adapts to the observed context at inference. We demonstrate robust in-domain and out-of-domain generalization across diverse imputation scenarios (e.g., block and pointwise missingness, variable sampling rates), paving the way for adaptable foundation imputation models.
- Abstract(参考訳): 近年、時系列基盤モデルへの関心が高まっており、予測タスクに重点を置いている。
しかし、欠落した値のドメイン外での計算という重要なタスクは、いまだに過小評価されている。
暗黙的ニューラル表現(INR)を活用することにより,このギャップを埋める第一歩を提案する。
INRは連続関数として時系列をモデル化し、様々な欠落したデータシナリオやサンプリングレートを自然に処理する。
特定のディストリビューション内では高いパフォーマンスを示しているが、分散シフトの下では苦労している。
そこで本研究では,時系列計算の基礎モデルであるMOTM(Mixture of Timeflow Models)を紹介する。
新しい時系列が以前に見られたパターンの混合であるという考えに基づいて、MoTMはINRの基礎を組み、それぞれ異なる時系列のファミリーに基づいて独立に訓練された。
我々は、様々な計算シナリオ(ブロックとポイントワイドの欠如、可変サンプリング率)にまたがる堅牢なドメイン内およびドメイン外一般化を実証し、適応可能な基礎計算モデルへの道を開く。
関連論文リスト
- Time Tracker: Mixture-of-Experts-Enhanced Foundation Time Series Forecasting Model with Decoupled Training Pipelines [5.543238821368548]
時系列はしばしば、異なる時間帯と領域にまたがる時間パターンに顕著な多様性を示す。
Time Trackerは、精度、モデルの一般化、適応性を予測する際に最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-21T06:18:41Z) - Mantis: Lightweight Calibrated Foundation Model for User-Friendly Time Series Classification [16.738168952631735]
我々は、Vision Transformerアーキテクチャに基づく時系列分類のための新しいオープンソース基盤モデルであるMantisを紹介する。
実験の結果,マンティスは背骨凍結時と微調整時の両方で既存の基礎モデルより優れていた。
論文 参考訳(メタデータ) (2025-02-21T18:06:09Z) - General Time-series Model for Universal Knowledge Representation of Multivariate Time-Series data [61.163542597764796]
周波数領域で異なる時間粒度(または対応する周波数分解能)の時系列が異なる結合分布を示すことを示す。
時間領域と周波数領域の両方からタイムアウェア表現を学習するために,新しいFourierナレッジアテンション機構を提案する。
自己回帰的空白埋め込み事前学習フレームワークを時系列解析に初めて組み込み、生成タスクに依存しない事前学習戦略を実現する。
論文 参考訳(メタデータ) (2025-02-05T15:20:04Z) - Generalized Prompt Tuning: Adapting Frozen Univariate Time Series Foundation Models for Multivariate Healthcare Time Series [3.9599054392856483]
時系列基礎モデルは、大規模なデータセットで事前訓練され、様々なタスクで最先端のパフォーマンスを達成することができる。
我々は、既存の単変量時系列基礎モデルに適応できる、素早いチューニングインスパイアされた微調整技術Gen-P-Tuningを提案する。
2つのMIMIC分類課題とインフルエンザ様疾患予測における各種ベースラインに対する微調整アプローチの有効性を実証した。
論文 参考訳(メタデータ) (2024-11-19T19:20:58Z) - Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - DAM: Towards A Foundation Model for Time Series Forecasting [0.8231118867997028]
本稿では,ランダムにサンプリングされた履歴を抽出し,時間連続関数として調整可能な基底組成を出力するニューラルモデルを提案する。
1)長い尾の分布からランダムにサンプリングされたヒストリーを使用する柔軟なアプローチ、(2)これらの活発にサンプリングされたヒストリーに基づいてトレーニングされたトランスフォーマーバックボーンを表現的出力として、(3)時間の連続関数の基底係数を含む。
論文 参考訳(メタデータ) (2024-07-25T08:48:07Z) - PDETime: Rethinking Long-Term Multivariate Time Series Forecasting from
the perspective of partial differential equations [49.80959046861793]
本稿では,ニューラルPDEソルバの原理に着想を得た新しいLMTFモデルであるPDETimeを提案する。
7つの異なる時間的実世界のLMTFデータセットを用いた実験により、PDETimeがデータ固有の性質に効果的に適応できることが判明した。
論文 参考訳(メタデータ) (2024-02-25T17:39:44Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。