論文の概要: Adapting Time Series Foundation Models through Data Mixtures
- arxiv url: http://arxiv.org/abs/2603.02840v1
- Date: Tue, 03 Mar 2026 10:38:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.751515
- Title: Adapting Time Series Foundation Models through Data Mixtures
- Title(参考訳): データミキサーによる時系列基礎モデルの適応
- Authors: Thomas L. Lee, Edoardo M. Ponti, Amos Storkey,
- Abstract要約: 時系列基礎モデル(TSFM)は、ゼロショット予測においてますます人気が高まっている。
事前トレーニングセットで完全にカバーされていない新しい時系列ドメインでは、パフォーマンスが損なわれる可能性がある。
ベイズ混合を用いてデータを再分割するMixFTを提案する。
- 参考スコア(独自算出の注目度): 11.889397871655767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series foundation models (TSFMs) have become increasingly popular for zero-shot forecasting. However, for a new time series domain not fully covered by the pretraining set, performance can suffer. Therefore, when a practitioner cares about a new domain and has access to a set of related datasets, the question arises: how best to fine-tune a TSFM to improve zero-shot forecasting? A typical approach to this type of problem is to fine-tune a LoRA module on all datasets or separately on each dataset. Tuning a separate module on each dataset allows for the specialisation of the TSFM to different types of data distribution, by selecting differing combinations of per-dataset modules for different time series contexts. However, we find that, using per-dataset modules might not be optimal, since a time series dataset can contain data from several types of distributions, i.e. sub-domains. This can be due to the distribution shifting or having differing distributions for different dimensions of the time series. Hence, we propose MixFT which re-divides the data using Bayesian mixtures into sets that best represent the sub-domains present in the data, and fine-tunes separately on each of these sets. This re-division of the data ensures that each set is more homogeneous, leading to fine-tuned modules focused on specific sub-domains. Our experiments show that MixFT performs better than per-dataset methods and when fine-tuning a single module on all the data. This suggests that by re-partitioning the data to represent sub-domains we can better specialise TSFMs to improve zero-shot forecasting.
- Abstract(参考訳): 時系列基礎モデル(TSFM)は、ゼロショット予測においてますます人気が高まっている。
しかし、事前トレーニングセットで完全にカバーされていない新しい時系列ドメインでは、パフォーマンスが損なわれる可能性がある。
したがって、実践者が新しいドメインを気にして関連するデータセットにアクセスしている場合、問題が発生する: ゼロショット予測を改善するためにTSFMを微調整するには、どうすればよいか?
この種の問題に対する典型的なアプローチは、すべてのデータセットまたは各データセットを別々に、LoRAモジュールを微調整することである。
各データセットに個別のモジュールをチューニングすることで、異なる時系列コンテキストに対してデータセット毎のモジュールの組み合わせを選択することで、TSFMをさまざまなタイプのデータ分散に特殊化することができる。
しかし、時系列データセットはいくつかの種類の分散、すなわちサブドメインからのデータを含むことができるので、データセット単位のモジュールの使用は最適ではないかもしれない。
これは、時系列の異なる次元の分布が変化するか、あるいは異なる分布を持つためである。
そこで本研究では,ベイズ混合を用いたデータから,データに含まれるサブドメインを最もよく表す集合と,これらの集合を個別に微構造に分割するMixFTを提案する。
このデータの再分割は、各集合がより均一であることを保証する。
実験の結果,MixFTはデータセットごとの手法よりも優れた性能を示し,すべてのデータに対して単一モジュールを微調整する場合に有効であることがわかった。
これは、サブドメインを表すためにデータを分割することで、ゼロショット予測を改善するためにTSFMを専門化できることを示している。
関連論文リスト
- Time-IMM: A Dataset and Benchmark for Irregular Multimodal Multivariate Time Series [15.23463778180355]
Time-IMMは、マルチモーダル時系列における原因駆動不規則を捉えるために設計されたデータセットである。
IMM-TSFは不規則なマルチモーダル時系列を予測するためのベンチマークライブラリである。
実験結果から,不規則な時系列データ上でのマルチモーダリティを明示的にモデル化すると,予測性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-06-12T07:07:22Z) - Breaking Silos: Adaptive Model Fusion Unlocks Better Time Series Forecasting [64.45587649141842]
時系列予測は多くの現実世界のアプリケーションにおいて重要な役割を果たす。
1つのモデルは、異なるテストサンプルで一貫して他よりも優れていますが、(ii) それぞれのモデルは特定のケースで優れています。
異種モデルのサンプルレベル適応融合による時系列予測のためのフレームワークであるTimeFuseを紹介する。
論文 参考訳(メタデータ) (2025-05-24T00:45:07Z) - TimePFN: Effective Multivariate Time Series Forecasting with Synthetic Data [22.458320848520042]
TimePFNは、ベイズ推定の近似を目的としたPFN(Presideed-data Fitted Networks)の概念に基づいている。
我々は、いくつかのベンチマークデータセット上でTimePFNを評価し、MSS予測のための既存の最先端モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-02-22T16:55:14Z) - Adapt-$\infty$: Scalable Continual Multimodal Instruction Tuning via Dynamic Data Selection [89.42023974249122]
Adapt-$infty$は、生涯のインストラクションチューニングのための、新しいマルチウェイおよびアダプティブなデータ選択アプローチである。
勾配に基づくサンプルベクトルをグループ化して擬似スキルクラスタを構築する。
セレクタエキスパートのプールから各スキルクラスタの最高のパフォーマンスデータセレクタを選択する。
このデータセレクタは、トレーニングのために各スキルクラスタから最も重要なサンプルのサブセットをサンプリングする。
論文 参考訳(メタデータ) (2024-10-14T15:48:09Z) - A Language Model-Guided Framework for Mining Time Series with Distributional Shifts [5.082311792764403]
本稿では,大規模言語モデルとデータソースインタフェースを用いて時系列データセットを探索・収集する手法を提案する。
収集したデータは外部ソースから得られるが、一次時系列データセットと重要な統計特性を共有できる。
収集されたデータセットは、既存のデータセット、特にデータ分散の変化を効果的に補うことができることを示唆している。
論文 参考訳(メタデータ) (2024-06-07T20:21:07Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Adaptive Test-Time Personalization for Federated Learning [51.25437606915392]
テスト時パーソナライズド・フェデレーション・ラーニング(TTPFL)と呼ばれる新しい設定を導入する。
TTPFLでは、クライアントはテスト期間中にラベル付きデータに頼ることなく、教師なしの方法でグローバルモデルをローカルに適応する。
本稿では,ソースドメイン間の分散シフトから,モデル内の各モジュールの適応率を適応的に学習する ATP という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-28T20:42:47Z) - Unite and Conquer: Plug & Play Multi-Modal Synthesis using Diffusion
Models [54.1843419649895]
拡散確率モデル(DDPM)に基づく解を提案する。
他の生成モデルよりも拡散モデルを選択する動機は、拡散モデルの柔軟な内部構造に由来する。
提案手法は,複数のサブタスクで訓練された複数の拡散モデルを統一し,組み合わせたタスクを克服する。
論文 参考訳(メタデータ) (2022-12-01T18:59:55Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Few-Shot Forecasting of Time-Series with Heterogeneous Channels [4.635820333232681]
本研究では,時間的埋め込みを組み込んだ置換不変な深部集合ブロックからなるモデルを開発する。
実験を通して、我々のモデルはより単純なシナリオから実行されたベースラインよりも優れた一般化を提供することを示す。
論文 参考訳(メタデータ) (2022-04-07T14:02:15Z) - Learn to Expect the Unexpected: Probably Approximately Correct Domain
Generalization [38.345670899258515]
ドメインの一般化は、トレーニングデータとテストデータが異なるデータドメインから来るときの機械学習の問題である。
データ分布にメタ分布が存在する領域をまたいで一般化する単純な理論モデルを提案する。
論文 参考訳(メタデータ) (2020-02-13T17:37:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。