論文の概要: EIDOS: Latent-Space Predictive Learning for Time Series Foundation Models
- arxiv url: http://arxiv.org/abs/2602.14024v1
- Date: Sun, 15 Feb 2026 07:07:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.603633
- Title: EIDOS: Latent-Space Predictive Learning for Time Series Foundation Models
- Title(参考訳): EIDOS: 時系列基礎モデルのための遅延空間予測学習
- Authors: Xinxing Zhou, Qingren Yao, Yiji Zhao, Chenghao Liu, Flora Salim, Xiaojie Yuan, Yanlong Wen, Ming Jin,
- Abstract要約: EIDOSは、将来の価値予測から潜在空間予測学習に移行する基礎モデルファミリーである。
我々は、潜伏表現の進化を予測するために因果変換器を訓練し、構造化および時間的に整合した潜伏状態の出現を促す。
- 参考スコア(独自算出の注目度): 37.917978019436674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most time series foundation models are pretrained by directly predicting future observations, which often yields weakly structured latent representations that capture surface noise rather than coherent and predictable temporal dynamics. In this work, we introduce EIDOS, a foundation model family that shifts pretraining from future value prediction to latent-space predictive learning. We train a causal Transformer to predict the evolution of latent representations, encouraging the emergence of structured and temporally coherent latent states. To ensure stable targets for latent-space learning, we design a lightweight aggregation branch to construct target representations. EIDOS is optimized via a joint objective that integrates latent-space alignment, observational grounding to anchor representations to the input signal, and direct forecasting supervision. On the GIFT-Eval benchmark, EIDOS mitigates structural fragmentation in the representation space and achieves state-of-the-art performance. These results demonstrate that constraining models to learn predictable latent dynamics is a principled step toward more robust and reliable time series foundation models.
- Abstract(参考訳): ほとんどの時系列基礎モデルは、将来の観測を直接予測することによって事前訓練されるが、これはしばしば、コヒーレントで予測可能な時間力学よりも表面ノイズを捉える弱い構造を持つ潜在表現をもたらす。
本研究では,事前学習を将来の価値予測から潜在空間予測学習に移行する基礎モデルであるEIDOSを紹介する。
我々は、潜伏表現の進化を予測するために因果変換器を訓練し、構造化および時間的に整合した潜伏状態の出現を促す。
遅延空間学習のための安定な目標を確保するために,目標表現を構築するための軽量集約ブランチを設計する。
EIDOSは、遅延空間アライメント、観測的グラウンドリング、入力信号への表現のアンカー、および直接予測監視を統合した共同目標によって最適化されている。
GIFT-Evalベンチマークでは、EIDOSは表現空間における構造的断片化を軽減し、最先端のパフォーマンスを実現する。
これらの結果は、予測可能な潜在力学を学習するための制約モデルが、より堅牢で信頼性の高い時系列基礎モデルに向けた原則的なステップであることを示している。
関連論文リスト
- Position: Beyond Model-Centric Prediction -- Agentic Time Series Forecasting [49.05788441962762]
エージェント時系列予測(ATSF)は,認識,計画,行動,反射,記憶からなるエージェントプロセスとして再編成される。
ワークフローに基づく設計、エージェント強化学習、ハイブリッドエージェントワークフローパラダイムという3つの代表的な実装パラダイムを概説し、モデル中心の予測からエージェント予測に移行する際に生じる機会と課題について議論する。
論文 参考訳(メタデータ) (2026-02-02T08:01:11Z) - From Observations to States: Latent Time Series Forecasting [65.98504021691666]
本稿では,TSFを観測回帰から潜時予測に移行する新しいパラダイムであるLatent Time Series Forecasting(LatentTSF)を提案する。
具体的には、LatentTSFはAutoEncoderを使用して、各段階での観測結果を高次元の潜在状態空間に投影する。
提案する潜伏目標は,予測潜伏状態と地道状態と観測値との相互情報を暗黙的に最大化する。
論文 参考訳(メタデータ) (2026-01-30T20:39:44Z) - PredNext: Explicit Cross-View Temporal Prediction for Unsupervised Learning in Spiking Neural Networks [70.1286354746363]
Spiking Neural Networks (SNN)は、教師なし表現学習のための自然なプラットフォームを提供する。
現在の監視されていないSNNは、浅いアーキテクチャや局所的な可塑性ルールを採用しており、長期の時間的依存関係をモデル化する能力を制限する。
我々は,横断的なステップ予測とクリップ予測を通じて時間的関係を明示的にモデル化するPredNextを提案する。
論文 参考訳(メタデータ) (2025-09-29T14:27:58Z) - A Deep Learning Approach for Spatio-Temporal Forecasting of InSAR Ground Deformation in Eastern Ireland [2.840858735842673]
地盤変位のモニタリングは、都市インフラと地質学的危険の軽減に不可欠である。
本稿では,スパース点計測を高密度時間テンソルに変換する新しいディープラーニングフレームワークを提案する。
その結果,提案アーキテクチャはより正確で空間的に整合性のある予測を提供することを示した。
論文 参考訳(メタデータ) (2025-09-17T17:10:18Z) - A Time-Series Foundation Model by Universal Delay Embedding [4.221753069966852]
本研究は,時系列予測に革命をもたらすための事前訓練された基礎モデルであるUniversal Delay Embedding (UDE)を紹介する。
観測データの動的表現としてのUDEは、ハンケル行列から2次元部分空間パッチを構成する。
特に、学習された動的表現とパッチからのクープマン作用素予測形式は例外的な解釈可能性を示す。
論文 参考訳(メタデータ) (2025-09-15T16:11:49Z) - iTFKAN: Interpretable Time Series Forecasting with Kolmogorov-Arnold Network [29.310194531870323]
信頼性のある時系列予測のための新しい解釈可能なモデルiTFKANを提案する。
iTFKANは、モデルシンボル化によって達成される解釈可能性により、モデル決定の論理と基礎となるデータパターンのさらなる探索を可能にする。
論文 参考訳(メタデータ) (2025-04-23T05:34:49Z) - ST-ReP: Learning Predictive Representations Efficiently for Spatial-Temporal Forecasting [7.637123047745445]
自己監督的手法は空間的時間的表現の学習にますます適応している。
現在の値再構成と将来の値予測は、事前学習フレームワークに統合される。
予測能力を高めるために,マルチタイムスケール分析を自己監督的損失に組み込む。
論文 参考訳(メタデータ) (2024-12-19T05:33:55Z) - Dynamical system prediction from sparse observations using deep neural networks with Voronoi tessellation and physics constraint [12.638698799995815]
本稿では,Voronoi Tessellation (DSOVT) フレームワークを用いたスパース観測からの動的システム予測について紹介する。
ボロノイテッセルレーションと深層学習モデルを統合することで、DSOVTは疎く非構造的な観測で力学系の予測に適している。
純粋にデータ駆動モデルと比較して、我々の物理学に基づくアプローチは、明示的に定式化された力学の中で物理法則を学習することができる。
論文 参考訳(メタデータ) (2024-08-31T13:43:52Z) - Learning Robust Precipitation Forecaster by Temporal Frame Interpolation [65.5045412005064]
本研究では,空間的不一致に対するレジリエンスを示す頑健な降水予測モデルを構築した。
提案手法は,textit4cast'23コンペティションの移行学習リーダーボードにおいて,textit1位を確保したモデルにおいて,予測精度が大幅に向上した。
論文 参考訳(メタデータ) (2023-11-30T08:22:08Z) - Supporting Optimal Phase Space Reconstructions Using Neural Network
Architecture for Time Series Modeling [68.8204255655161]
位相空間特性を暗黙的に学習する機構を持つ人工ニューラルネットワークを提案する。
私たちのアプローチは、ほとんどの最先端戦略と同じくらいの競争力があるか、あるいは優れているかのどちらかです。
論文 参考訳(メタデータ) (2020-06-19T21:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。