論文の概要: FMTK: A Modular Toolkit for Composable Time Series Foundation Model Pipelines
- arxiv url: http://arxiv.org/abs/2512.01038v1
- Date: Sun, 30 Nov 2025 19:14:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.552826
- Title: FMTK: A Modular Toolkit for Composable Time Series Foundation Model Pipelines
- Title(参考訳): FMTK: 構成可能な時系列モデルパイプラインのためのモジュールツールキット
- Authors: Hetvi Shastri, Pragya Sharma, Walid A. Hanafy, Mani Srivastava, Prashant Shenoy,
- Abstract要約: 時系列基礎モデル(TSFM)は、分類、回帰、計算タスクにおいて強い性能を示した。
最近のパイプラインはTSFMとタスク固有のエンコーダ、デコーダ、アダプタを組み合わせてパフォーマンスを向上させる。
我々は,TSFMパイプラインの構築と微調整を行うオープンソースで軽量な実装ツールキットであるFMTKを紹介する。
- 参考スコア(独自算出の注目度): 2.6650725474904617
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models (FMs) have opened new avenues for machine learning applications due to their ability to adapt to new and unseen tasks with minimal or no further training. Time-series foundation models (TSFMs) -- FMs trained on time-series data -- have shown strong performance on classification, regression, and imputation tasks. Recent pipelines combine TSFMs with task-specific encoders, decoders, and adapters to improve performance; however, assembling such pipelines typically requires ad hoc, model-specific implementations that hinder modularity and reproducibility. We introduce FMTK, an open-source, lightweight and extensible toolkit for constructing and fine-tuning TSFM pipelines via standardized backbone and component abstractions. FMTK enables flexible composition across models and tasks, achieving correctness and performance with an average of seven lines of code. https://github.com/umassos/FMTK
- Abstract(参考訳): ファンデーションモデル(FM)は、最小あるいはそれ以上のトレーニングで、新しく見えないタスクに適応できるため、機械学習アプリケーションのための新しい道を開いた。
時系列基礎モデル(TSFM) -- 時系列データに基づいて訓練されたFM -- は、分類、回帰、計算タスクに強いパフォーマンスを示している。
最近のパイプラインはTSFMとタスク固有のエンコーダ、デコーダ、アダプタを組み合わせることでパフォーマンスを向上させるが、そのようなパイプラインを組み立てるには一般的に、モジュール性と再現性を阻害するアドホックなモデル固有の実装が必要である。
標準化されたバックボーンとコンポーネントの抽象化を通じて、TSFMパイプラインの構築と微調整を行うオープンソースで軽量で拡張可能なツールキットであるFMTKを紹介する。
FMTKはモデルとタスク間で柔軟な構成を可能にし、平均7行のコードで正確性とパフォーマンスを達成する。
https://github.com/umassos/FMTK
関連論文リスト
- LFM2 Technical Report [87.58431408281973]
LFM2は、デバイス上での効率的なデプロイと強力なタスク機能を実現するために設計された、Liquid Foundation Modelsのファミリーである。
LFM2ファミリーは350M-8.3Bパラメータをカバーしており、密度の高いモデル(350M, 700M, 1.2B, 2.6B)と試験用混合物(合計8.3B, 1.5B)を含んでいる。
視覚遅延タスクのためのLFM2-VL,音声のためのLFM2-Audio,検索のためのLFM2-ColBERTを構築した。
論文 参考訳(メタデータ) (2025-11-28T17:56:35Z) - TFMAdapter: Lightweight Instance-Level Adaptation of Foundation Models for Forecasting with Covariates [21.978694988304692]
時系列基礎モデル(TSFM)は、最近、新しい時系列の単変量予測において最先端のパフォーマンスを達成した。
我々は,TSFMを微調整なしで共変情報で拡張する,軽量なインスタンスレベルのアダプタであるFMAdapterを提案する。
実世界のデータセットに関する大規模な実験は、FMAdapterがファンデーションモデルと教師付きベースラインの両方を一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-09-17T11:13:14Z) - Hierarchical Federated Foundation Models over Wireless Networks for Multi-Modal Multi-Task Intelligence: Integration of Edge Learning with D2D/P2P-Enabled Fog Learning Architectures [58.72593025539547]
本稿では,階層型フェデレーション基礎モデル(HF-FM)を提案することで,M3T FFMの探索されていないバリエーションを明らかにする。
HF-FMはM3T FMのモジュール構造を戦略的に整列させ、モダリティエンコーダ、プロンプト、ME(Mixy-of-Experts)、アダプタ、タスクヘッドから構成される。
その可能性を実証するため,無線ネットワーク環境におけるHF-FMの試作と,HF-FMの開発のためのオープンソースコードのリリースを行った。
論文 参考訳(メタデータ) (2025-09-03T20:23:19Z) - Multi-Scale Finetuning for Encoder-based Time Series Foundation Models [67.95907033226585]
時系列基礎モデル (TSFM) は, 時系列予測において印象的なゼロショット性能を示す。
直感的な微調整はパフォーマンスの向上をもたらすが、TSFMの能力を完全に活用するには不十分である、と我々は主張する。
マルチスケール・ファインタニング(MSFT)は,マルチスケール・モデリングをファインタニング・プロセスに明示的に統合する,シンプルながら汎用的なフレームワークである。
論文 参考訳(メタデータ) (2025-06-17T01:06:01Z) - Less is More: Unlocking Specialization of Time Series Foundation Models via Structured Pruning [27.23328609888911]
時系列基礎モデル 広大なパラメータを事前訓練し、驚くべきゼロショット予測性能を達成する。
驚くべきことに、微調整後も、TSFMは、フルショットダウンストリームデータでトレーニングされた、より小さな、特殊なモデルよりも一貫してパフォーマンスを向上することはできない。
より関連性が高くコンパクトなパラメータ空間に焦点を合わせることにより、その後の微調整プロセスを正規化するための構造化プルーニング法を提案する。
論文 参考訳(メタデータ) (2025-05-29T07:33:49Z) - Enabling Time-series Foundation Model for Building Energy Forecasting via Contrastive Curriculum Learning [12.19823790689484]
エネルギー予測タスク構築のための基礎モデル(FM)の適用について検討する。
そこで本研究では,新しいテキストコントラスト学習に基づく学習方法を提案する。
実験の結果,既存のFMと比較してゼロ/フェーショット性能を14.6%向上できることがわかった。
論文 参考訳(メタデータ) (2024-12-23T05:07:06Z) - FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Leaf-FM: A Learnable Feature Generation Factorization Machine for
Click-Through Rate Prediction [2.412497918389292]
本稿では,FM に基づく LeafFM モデルを提案する。
実世界の3つのデータセットで実験を行い、その結果、Leaf-FMモデルは標準FMよりも大きなマージンで優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T08:29:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。