論文の概要: Deep TPC: Temporal-Prior Conditioning for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2602.16188v1
- Date: Wed, 18 Feb 2026 05:16:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.516167
- Title: Deep TPC: Temporal-Prior Conditioning for Time Series Forecasting
- Title(参考訳): Deep TPC:時系列予測のためのテンポラルパラメータコンディショニング
- Authors: Filippos Bellos, NaveenJohn Premkumar, Yannis Avrithis, Nam H. Nguyen, Jason J. Corso,
- Abstract要約: 本稿では,TPC(Presideed-Temporal Conditioning)を導入する。
TPCは、学習可能な時系列トークンの小さなセットをパッチストリームにアタッチし、セルフアテンションを通じて時間的コンテキストを返送する。
我々は,TPCが細調整と浅条件設定の両戦略を一貫して上回っていることを示す。
- 参考スコア(独自算出の注目度): 17.989839889415205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLM-for-time series (TS) methods typically treat time shallowly, injecting positional or prompt-based cues once at the input of a largely frozen decoder, which limits temporal reasoning as this information degrades through the layers. We introduce Temporal-Prior Conditioning (TPC), which elevates time to a first-class modality that conditions the model at multiple depths. TPC attaches a small set of learnable time series tokens to the patch stream; at selected layers these tokens cross-attend to temporal embeddings derived from compact, human-readable temporal descriptors encoded by the same frozen LLM, then feed temporal context back via self-attention. This disentangles time series signal and temporal information while maintaining a low parameter budget. We show that by training only the cross-attention modules and explicitly disentangling time series signal and temporal information, TPC consistently outperforms both full fine-tuning and shallow conditioning strategies, achieving state-of-the-art performance in long-term forecasting across diverse datasets. Code available at: https://github.com/fil-mp/Deep_tpc
- Abstract(参考訳): LLM-for-time series (TS) の手法は一般に時間的に浅く扱い、主に凍結したデコーダの入力時に位置的またはプロンプトベースのキューを注入する。
本稿では,TPC(Temporal-Prior Conditioning)を提案する。
TPCは、学習可能な時系列トークンの小さなセットをパッチストリームに添付し、選択された層において、これらのトークンは、同じ凍結LDMで符号化されたコンパクトで可読な時間的記述子から派生した時間的埋め込みに交差し、自己注意を介して時間的コンテキストをフィードバックする。
これは、低パラメータ予算を維持しながら時系列信号と時間情報をアンタングルする。
クロスアテンションモジュールのみをトレーニングし、時系列信号と時間情報を明示的に切り離すことで、TPCは完全な微調整と浅い条件付けの戦略を一貫して上回り、多種多様なデータセットにわたる長期予測における最先端の性能を達成する。
https://github.com/fil-mp/Deep_tpc
関連論文リスト
- Enhancing Temporal Awareness in LLMs for Temporal Point Processes [53.596733432865626]
時間的ポイントプロセス(TPP)は、時間とともにイベントを分析するのに不可欠である。
TPP-TALは、大規模な言語モデルにおける時間的推論を強化するために設計された新しいプラグイン・アンド・プレイフレームワークである。
TPP-TALは時間的確率推定と事象予測精度を大幅に改善した。
論文 参考訳(メタデータ) (2025-12-29T03:01:24Z) - BALM-TSF: Balanced Multimodal Alignment for LLM-Based Time Series Forecasting [5.360725360679271]
BALM-TSFは時系列予測のための軽量フレームワークである。
時系列とテキスト埋め込みのバランスを維持する。
長期および少数ショットの予測において、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-08-30T22:31:55Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - TASeg: Temporal Aggregation Network for LiDAR Semantic Segmentation [80.13343299606146]
そこで本稿では, 時系列LiDARアグリゲーション・蒸留(TLAD)アルゴリズムを提案する。
時間画像のフル活用を目的として,カメラFOVを大幅に拡張できるTIAFモジュールを設計した。
また,静的移動スイッチ拡張(SMSA)アルゴリズムを開発し,時間的情報を利用してオブジェクトの動作状態を自由に切り替える。
論文 参考訳(メタデータ) (2024-07-13T03:00:16Z) - TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment [21.690191536424567]
TimeCMAは、時系列予測のための直感的で効果的なフレームワークである。
8つの実際のデータセットに対する大規模な実験は、TimeCMAが最先端のデータセットを上回っていることを示している。
論文 参考訳(メタデータ) (2024-06-03T00:27:29Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。