論文の概要: TimePerceiver: An Encoder-Decoder Framework for Generalized Time-Series Forecasting
- arxiv url: http://arxiv.org/abs/2512.22550v1
- Date: Sat, 27 Dec 2025 10:34:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.108684
- Title: TimePerceiver: An Encoder-Decoder Framework for Generalized Time-Series Forecasting
- Title(参考訳): TimePerceiver: 一般化された時系列予測のためのエンコーダデコーダフレームワーク
- Authors: Jaebin Lee, Hankook Lee,
- Abstract要約: 我々は,統一型エンコーダデコーダ予測フレームワークであるTimePerceiverを提案する。
まず,予測タスクを多種多様な時間的予測目標を含むように一般化する。
符号化には、すべての入力セグメントと対話できる潜在ボトルネック表現のセットを導入する。
復号には、対象のタイムスタンプに対応する学習可能なクエリを活用して、関連情報を効率的に検索する。
- 参考スコア(独自算出の注目度): 8.272371466979058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In machine learning, effective modeling requires a holistic consideration of how to encode inputs, make predictions (i.e., decoding), and train the model. However, in time-series forecasting, prior work has predominantly focused on encoder design, often treating prediction and training as separate or secondary concerns. In this paper, we propose TimePerceiver, a unified encoder-decoder forecasting framework that is tightly aligned with an effective training strategy. To be specific, we first generalize the forecasting task to include diverse temporal prediction objectives such as extrapolation, interpolation, and imputation. Since this generalization requires handling input and target segments that are arbitrarily positioned along the temporal axis, we design a novel encoder-decoder architecture that can flexibly perceive and adapt to these varying positions. For encoding, we introduce a set of latent bottleneck representations that can interact with all input segments to jointly capture temporal and cross-channel dependencies. For decoding, we leverage learnable queries corresponding to target timestamps to effectively retrieve relevant information. Extensive experiments demonstrate that our framework consistently and significantly outperforms prior state-of-the-art baselines across a wide range of benchmark datasets. The code is available at https://github.com/efficient-learning-lab/TimePerceiver.
- Abstract(参考訳): 機械学習では、効果的なモデリングは、入力をエンコードし、予測(デコード)を行い、モデルを訓練する方法に関する全体論的考察を必要とする。
しかしながら、時系列予測では、事前の作業は主にエンコーダ設計に重点を置いており、しばしば予測とトレーニングを別々または二次的な関心事として扱う。
本稿では,効果的なトレーニング戦略と密に整合した統一エンコーダデコーダ予測フレームワークであるTimePerceiverを提案する。
具体的には、まず予測タスクを一般化し、外挿、補間、計算などの様々な時間的予測目標を含む。
この一般化は、時間軸に沿って任意に位置付けられた入力とターゲットセグメントの処理を必要とするため、これらの様々な位置を柔軟に知覚し適応できる新しいエンコーダデコーダアーキテクチャを設計する。
エンコーディングでは,すべての入力セグメントと相互作用し,時間的およびチャネル間の依存関係を共同でキャプチャする,潜在ボトルネック表現のセットを導入する。
復号には、対象のタイムスタンプに対応する学習可能なクエリを活用して、関連情報を効率的に検索する。
大規模な実験により、我々のフレームワークは、幅広いベンチマークデータセットで、最先端のベースラインを一貫して、そして著しく上回っていることが示される。
コードはhttps://github.com/efficient-learning-lab/TimePerceiverで入手できる。
関連論文リスト
- A Unified Frequency Domain Decomposition Framework for Interpretable and Robust Time Series Forecasting [81.73338008264115]
時系列予測の現在のアプローチは、時間領域であれ周波数領域であれ、主に線形層やトランスフォーマーに基づいたディープラーニングモデルを使用する。
本稿では,多種多様な時系列を数学的に抽象化する統合周波数領域分解フレームワークFIREを提案する。
火は長期予測ベンチマークで最先端のモデルを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-11T09:59:25Z) - BinConv: A Neural Architecture for Ordinal Encoding in Time-Series Forecasting [5.827431686047649]
確率予測のために設計された完全畳み込みニューラルネットワークアーキテクチャである textbfBinConv を提案する。
BinConvは、ポイントと確率予測の両方で広く使用されているベースラインデータセットと比較して、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-05-30T13:41:39Z) - Forecasting Clinical Risk from Textual Time Series: Structuring Narratives for Temporal AI in Healthcare [3.2957337131930484]
本稿では, タイムスタンプによる臨床所見が予測の主入力となるテキスト時系列からの予測問題について紹介する。
我々は、細調整されたデコーダベースの大規模言語モデルやエンコーダベースのトランスフォーマーなど、多様なモデル群を評価する。
論文 参考訳(メタデータ) (2025-04-14T15:48:56Z) - TimeCAP: Learning to Contextualize, Augment, and Predict Time Series Events with Large Language Model Agents [52.13094810313054]
TimeCAPは、時系列データのコンテキスト化ツールとしてLarge Language Models(LLM)を創造的に利用する時系列処理フレームワークである。
TimeCAPには2つの独立したLCMエージェントが組み込まれており、1つは時系列のコンテキストをキャプチャするテキスト要約を生成し、もう1つはより情報のある予測を行うためにこのリッチな要約を使用する。
実世界のデータセットによる実験結果から,TimeCAPは時系列イベント予測の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-17T04:17:27Z) - Temporal Context Consistency Above All: Enhancing Long-Term Anticipation by Learning and Enforcing Temporal Constraints [4.880243880711163]
本稿では,初期未トリミング映像区間の観察から,動画中の動作ラベルとその持続時間を予測する手法を提案する。
並列デコーディングを備えたエンコーダ・デコーダアーキテクチャ上に構築し,2つの重要なコントリビューションを行う。
LTA,EpicKitchen-55,EGTEA+,50Salads,Breakfastの4つのベンチマークデータセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-12-27T03:29:10Z) - Enhancing Foundation Models for Time Series Forecasting via Wavelet-based Tokenization [74.3339999119713]
我々はウェーブレットベースのトークンーザを開発し、時間局所化周波数の空間でモデルが複雑な表現を直接学習できるようにする。
提案手法は,まず入力時系列をスケール・分解し,次に閾値を設定し,ウェーブレット係数を定量化し,最後に予測水平方向の係数を予測する自己回帰モデルを事前学習する。
論文 参考訳(メタデータ) (2024-12-06T18:22:59Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Representation Learning for Sequence Data with Deep Autoencoding
Predictive Components [96.42805872177067]
本稿では,シーケンスデータの有用な表現が潜在空間における単純な構造を示すべきという直感に基づく,シーケンスデータの自己教師型表現学習法を提案する。
我々は,過去と将来のウィンドウ間の相互情報である潜在特徴系列の予測情報を最大化することにより,この潜時構造を奨励する。
提案手法は,ノイズの多い動的システムの潜時空間を復元し,タスク予測のための予測特徴を抽出し,エンコーダを大量の未ラベルデータで事前訓練する場合に音声認識を改善する。
論文 参考訳(メタデータ) (2020-10-07T03:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。