論文の概要: In-context Pre-trained Time-Series Foundation Models adapt to Unseen Tasks
- arxiv url: http://arxiv.org/abs/2602.20307v1
- Date: Mon, 23 Feb 2026 19:48:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.508064
- Title: In-context Pre-trained Time-Series Foundation Models adapt to Unseen Tasks
- Title(参考訳): In-context Pre-trained Time-Series Foundation Models adapt to Unseen Tasks
- Authors: Shangqing Xu, Harshavardhan Kamarthi, Haoxin Liu, B. Aditya Prakash,
- Abstract要約: 時系列基礎モデル(TSFM)は、多様なデータセットやタスクにまたがる強力な一般化機能を示している。
In-Context Learning(ICL)機能によりTSFMを拡張し、テスト時間推論を可能にする。
我々のフレームワークであるICTP(In-Context Time-Series Pre-Training)は、元の事前トレーニングデータを再構成して、バックボーンTSFMにICL機能を持たせる。
- 参考スコア(独自算出の注目度): 22.20716752724626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time-series foundation models (TSFMs) have demonstrated strong generalization capabilities across diverse datasets and tasks. However, existing foundation models are typically pre-trained to enhance performance on specific tasks and often struggle to generalize to unseen tasks without fine-tuning. To address this limitation, we propose augmenting TSFMs with In-Context Learning (ICL) capabilities, enabling them to perform test-time inference by dynamically adapting to input-output relationships provided within the context. Our framework, In-Context Time-series Pre-training (ICTP), restructures the original pre-training data to equip the backbone TSFM with ICL capabilities, enabling adaptation to unseen tasks. Experiments demonstrate that ICT improves the performance of state-of-the-art TSFMs by approximately 11.4% on unseen tasks without requiring fine-tuning.
- Abstract(参考訳): 時系列基礎モデル(TSFM)は、多様なデータセットやタスクにまたがる強力な一般化機能を示している。
しかし、既存の基礎モデルは、通常、特定のタスクのパフォーマンスを高めるために事前訓練され、細かい調整なしに見えないタスクに一般化するのに苦労する。
この制限に対処するため,文脈内で提供される入力-出力関係に動的に適応させることで,テスト時間推論を行えるようにTSFMをICL(In-Context Learning)機能で拡張する手法を提案する。
我々のフレームワークであるICTP(In-Context Time-Series Pre-Training)は、元の事前学習データを再構成して、バックボーンTSFMにICL機能を持たせることで、目に見えないタスクへの適応を可能にする。
実験の結果、ICTは最先端のTSFMの性能を微調整を必要とせずに約11.4%向上することが示された。
関連論文リスト
- Dynamic Routing Between Experts: A Data-Efficient Approach to Continual Learning in Vision-Language Models [10.431923437214719]
VLM(Vision-Language Models)は、新しいタスクを逐次微調整する場合、破滅的な忘れ込みに悩まされる。
本稿では,事前学習時に得られる基礎知識を維持しつつ,新たなタスクの統合を可能にするルーティングベースのアプローチを提案する。
論文 参考訳(メタデータ) (2025-11-03T18:39:32Z) - Specialization after Generalization: Towards Understanding Test-Time Training in Foundation Models [64.02612380298228]
最近の研究は、テストタイムトレーニング(TTT)として知られる特定のタスクに対して、テストタイムでモデルをトレーニングし続けるというアイデアを探求している。
本稿では,TTTがグローバルトレーニングよりもはるかに小さな分布内テスト誤差を達成できるモデルを提案する。
我々は、ImageNet上でスパースオートエンコーダをトレーニングすることで、モデルの主要な仮定を実証的に検証する。
論文 参考訳(メタデータ) (2025-09-29T09:24:52Z) - Estimating Time Series Foundation Model Transferability via In-Context Learning [74.65355820906355]
時系列基礎モデル(TSFM)は、大規模な事前訓練を通じて強力なゼロショット予測を提供する。
微調整は、公開データに制限のあるドメインのパフォーマンス向上に依然として不可欠である。
モデル選択をコンテキスト内学習問題として再キャストする転送可能性推定フレームワークであるTimeTicを紹介する。
論文 参考訳(メタデータ) (2025-09-28T07:07:13Z) - Can Time-Series Foundation Models Perform Building Energy Management Tasks? [5.450531952940644]
エネルギー管理タスクを構築するには、さまざまな時系列データからの処理と学習が必要である。
既存のソリューションは、これらのタスクを実行するために、bespokeタスクとデータ固有のモデルに依存しています。
LLM(Large Language Models)の変革的な成功に触発されて、TSFM(Time-Series Foundation Models)は、これを変える可能性を秘めている。
論文 参考訳(メタデータ) (2025-06-12T19:45:10Z) - UniSTD: Towards Unified Spatio-Temporal Learning across Diverse Disciplines [64.84631333071728]
本稿では,時間的モデリングのためのトランスフォーマーベースの統合フレームワークであるbfUnistageを紹介する。
我々の研究は、タスク固有の視覚テキストが時間学習のための一般化可能なモデルを構築することができることを示した。
また、時間的ダイナミクスを明示的に組み込むための時間的モジュールも導入する。
論文 参考訳(メタデータ) (2025-03-26T17:33:23Z) - Federated Continual Instruction Tuning [39.344583304181135]
フェデレートラーニング(FL)は、すべての分散データとトレーニングリソースを活用して、共同トレーニングのオーバーヘッドを軽減する可能性がある。
本稿では,この実世界の課題をモデル化するために,FCIT(Federated Continual Instruction Tuning)ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-03-17T07:58:06Z) - Parameter-Efficient Fine-Tuning for Continual Learning: A Neural Tangent Kernel Perspective [125.00228936051657]
本稿では,タスク関連機能を適応的に生成しながら,タスク固有のパラメータ記憶を不要にする新しいフレームワークNTK-CLを紹介する。
最適化可能なパラメータを適切な正規化で微調整することにより、NTK-CLは確立されたPEFT-CLベンチマーク上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-07-24T09:30:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。