論文の概要: SwiftTS: A Swift Selection Framework for Time Series Pre-trained Models via Multi-task Meta-Learning
- arxiv url: http://arxiv.org/abs/2510.23051v1
- Date: Mon, 27 Oct 2025 06:26:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.592299
- Title: SwiftTS: A Swift Selection Framework for Time Series Pre-trained Models via Multi-task Meta-Learning
- Title(参考訳): SwiftTS:マルチタスクメタ学習による時系列事前トレーニングモデルのためのSwift選択フレームワーク
- Authors: Tengxue Zhang, Biao Ouyang, Yang Shu, Xinyang Chen, Chenjuan Guo, Bin Yang,
- Abstract要約: 時系列事前学習モデルの迅速な選択フレームワークである textbfSwiftTS を提案する。
軽量なデュアルエンコーダアーキテクチャを採用し、時系列と候補モデルにリッチな特徴を組み込む。
SwiftTSは、時系列事前訓練モデル選択における最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 19.411666256534808
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Pre-trained models exhibit strong generalization to various downstream tasks. However, given the numerous models available in the model hub, identifying the most suitable one by individually fine-tuning is time-consuming. In this paper, we propose \textbf{SwiftTS}, a swift selection framework for time series pre-trained models. To avoid expensive forward propagation through all candidates, SwiftTS adopts a learning-guided approach that leverages historical dataset-model performance pairs across diverse horizons to predict model performance on unseen datasets. It employs a lightweight dual-encoder architecture that embeds time series and candidate models with rich characteristics, computing patchwise compatibility scores between data and model embeddings for efficient selection. To further enhance the generalization across datasets and horizons, we introduce a horizon-adaptive expert composition module that dynamically adjusts expert weights, and the transferable cross-task learning with cross-dataset and cross-horizon task sampling to enhance out-of-distribution (OOD) robustness. Extensive experiments on 14 downstream datasets and 8 pre-trained models demonstrate that SwiftTS achieves state-of-the-art performance in time series pre-trained model selection.
- Abstract(参考訳): 事前訓練されたモデルは、様々な下流タスクに強力な一般化を示す。
しかし、モデルハブで利用可能な多数のモデルを考えると、個別に微調整することで最も適切なモデルを特定するのに時間がかかる。
本稿では,時系列事前学習モデルの迅速な選択フレームワークである「textbf{SwiftTS}」を提案する。
すべての候補による高価な転送を回避するため、SwiftTSでは、さまざまな地平線を越えた過去のデータセットモデルパフォーマンスペアを活用して、目に見えないデータセット上でのモデルパフォーマンスを予測する、学習誘導型アプローチを採用している。
このアーキテクチャは、時系列と候補モデルにリッチな特性を組み込んだ軽量なデュアルエンコーダアーキテクチャを採用し、効率的な選択のためにデータとモデル埋め込み間のパッチワイド互換性スコアを計算している。
データセットと水平線をまたいだ一般化をさらに高めるため、専門家の重みを動的に調整する水平適応型エキスパート合成モジュールと、クロスデータセットとクロス水平タスクサンプリングによるトランスファー可能なクロスタスク学習を導入し、アウト・オブ・ディストリビューション(OOD)の堅牢性を高める。
14のダウンストリームデータセットと8つの事前トレーニングモデルに対する大規模な実験は、SwiftTSが時系列事前トレーニングモデル選択で最先端のパフォーマンスを達成することを実証している。
関連論文リスト
- Breaking Silos: Adaptive Model Fusion Unlocks Better Time Series Forecasting [64.45587649141842]
時系列予測は多くの現実世界のアプリケーションにおいて重要な役割を果たす。
1つのモデルは、異なるテストサンプルで一貫して他よりも優れていますが、(ii) それぞれのモデルは特定のケースで優れています。
異種モデルのサンプルレベル適応融合による時系列予測のためのフレームワークであるTimeFuseを紹介する。
論文 参考訳(メタデータ) (2025-05-24T00:45:07Z) - LETS-C: Leveraging Text Embedding for Time Series Classification [15.520883566827608]
本稿では,時系列領域における言語モデリングの成功を活用するための代替手法を提案する。
テキスト埋め込みモデルを用いて時系列を埋め込み、その埋め込みを畳み込みニューラルネットワーク(CNN)と多層パーセプトロン(MLP)からなる単純な分類ヘッドと組み合わせる。
本研究は,テキスト埋め込みモデルを用いて時系列データをエンコードし,かつ,単純かつ効果的に分類し,高性能な時系列分類を実現する上で有望な方向性を示すことを示唆する。
論文 参考訳(メタデータ) (2024-07-09T04:07:57Z) - A Two-Phase Recall-and-Select Framework for Fast Model Selection [13.385915962994806]
本稿では,2相モデル選択フレームワークを提案する。
これは、ベンチマークデータセット上でモデルのトレーニングパフォーマンスを活用することにより、堅牢なモデルを選択する効率を高めることを目的としている。
提案手法は,従来のベースライン法に比べて約3倍の速度でハイパフォーマンスモデルの選択を容易にすることが実証された。
論文 参考訳(メタデータ) (2024-03-28T14:44:44Z) - UniTS: A Unified Multi-Task Time Series Model [31.675845788410246]
UniTSは、予測タスクと生成タスクを単一のフレームワークに統合した、統合されたマルチタスク時系列モデルである。
UniTSは、人間の活動センサー、ヘルスケア、エンジニアリング、ファイナンスにまたがる38のデータセットでテストされている。
論文 参考訳(メタデータ) (2024-02-29T21:25:58Z) - Generative Pretrained Hierarchical Transformer for Time Series Forecasting [3.739587363053192]
予測のための新しい生成事前学習型階層型トランスフォーマーアーキテクチャ,textbfGPHTを提案する。
主流の自己教師付き事前学習モデルと教師付きモデルを用いて,8つのデータセット上で十分な実験を行う。
その結果、GPHTは、従来の長期予測タスクにおいて、様々な微調整およびゼロ/フェーショット学習設定のベースラインモデルを上回ることを示した。
論文 参考訳(メタデータ) (2024-02-26T11:54:54Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Large Pre-trained time series models for cross-domain Time series analysis tasks [20.228846068418765]
Large Pre-trained Time-Series Models (LPTM) は、事前トレーニング中に最適なデータセット固有のセグメンテーション戦略を自動的に識別する適応セグメンテーションの新しい手法である。
LPTMは、最先端のベースラインに比べて最大40%データが少なく、トレーニング時間も50%少ない。
論文 参考訳(メタデータ) (2023-11-19T20:16:16Z) - Quick-Tune: Quickly Learning Which Pretrained Model to Finetune and How [62.467716468917224]
本稿では,最適事前学習モデルとハイパーパラメータを共同で探索し,微調整する手法を提案する。
本手法は,一連のデータセット上で,事前学習したモデルの性能に関する知識を伝達する。
得られたアプローチによって、新しいデータセットの正確な事前学習モデルを迅速に選択できることを実証的に実証する。
論文 参考訳(メタデータ) (2023-06-06T16:15:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。