論文の概要: Test-Time Efficient Pretrained Model Portfolios for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2510.06419v1
- Date: Tue, 07 Oct 2025 19:57:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.176137
- Title: Test-Time Efficient Pretrained Model Portfolios for Time Series Forecasting
- Title(参考訳): 時系列予測のためのテスト時間効率の良い事前学習モデルポートフォリオ
- Authors: Mert Kayaalp, Caner Turkmen, Oleksandr Shchur, Pedro Mercado, Abdul Fatir Ansari, Michael Bohlke-Schneider, Bernie Wang,
- Abstract要約: 単一で大規模なモノリシックモデルのトレーニングの代替として、より小さく、事前トレーニングされた予測モデルのポートフォリオを構築することを検討します。
これらのポートフォリオに対してアンサンブルやモデルの選択を適用することで、大規模なベンチマークで競合するパフォーマンスを実現します。
専門モデルの収集は、独立に訓練されたジェネラリストのポートフォリオを一貫して上回ります。
- 参考スコア(独自算出の注目度): 23.59560987063683
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Is bigger always better for time series foundation models? With the question in mind, we explore an alternative to training a single, large monolithic model: building a portfolio of smaller, pretrained forecasting models. By applying ensembling or model selection over these portfolios, we achieve competitive performance on large-scale benchmarks using much fewer parameters. We explore strategies for designing such portfolios and find that collections of specialist models consistently outperform portfolios of independently trained generalists. Remarkably, we demonstrate that post-training a base model is a compute-effective approach for creating sufficiently diverse specialists, and provide evidences that ensembling and model selection are more compute-efficient than test-time fine-tuning.
- Abstract(参考訳): より大きいものは、常に時系列基礎モデルより優れているか?
疑問を念頭に置いて、1つの大きなモノリシックモデルをトレーニングする代替手段を探り、より小さく、事前訓練された予測モデルのポートフォリオを構築します。
これらのポートフォリオに対してアンサンブルやモデル選択を適用することで、より少ないパラメータを用いて大規模ベンチマーク上での競合性能を実現する。
このようなポートフォリオを設計するための戦略を探求し、専門家モデルの収集が、独立して訓練されたジェネリストのポートフォリオを一貫して上回っていることを発見する。
特筆すべきは、ベースモデルのポストトレーニングが、十分に多様なスペシャリストを作成するための計算効率の良いアプローチであることを示し、アンサンブルとモデル選択がテストタイムの微調整よりも計算効率が高いことを示すことである。
関連論文リスト
- How Foundational are Foundation Models for Time Series Forecasting? [2.692427265051276]
時系列データの本質的な多様性は、基礎モデルが効果的なモデル構築にはあまり適さないことを論じる。
時系列基礎モデルのゼロショット能力は、事前訓練された特定のドメインに大きく影響され、結びついていることが示される。
論文 参考訳(メタデータ) (2025-10-01T10:25:43Z) - GRAM: A Generative Foundation Reward Model for Reward Generalization [48.63394690265176]
まず,大規模教師なし学習を用いて学習し,教師付き学習により微調整を行う生成報酬モデルを開発した。
このモデルは、応答ランキング、人間のフィードバックからの強化学習、微調整によるタスク適応など、様々なタスクをうまく一般化する。
論文 参考訳(メタデータ) (2025-06-17T04:34:27Z) - Breaking Silos: Adaptive Model Fusion Unlocks Better Time Series Forecasting [64.45587649141842]
時系列予測は多くの現実世界のアプリケーションにおいて重要な役割を果たす。
1つのモデルは、異なるテストサンプルで一貫して他よりも優れていますが、(ii) それぞれのモデルは特定のケースで優れています。
異種モデルのサンプルレベル適応融合による時系列予測のためのフレームワークであるTimeFuseを紹介する。
論文 参考訳(メタデータ) (2025-05-24T00:45:07Z) - LeForecast: Enterprise Hybrid Forecast by Time Series Intelligence [10.203492575046015]
LeForecastは、時系列タスクに適したエンタープライズインテリジェンスプラットフォームである。
時系列データとマルチソース情報の高度な解釈、および3ピラーモデリングエンジンを統合する。
本研究は3つの産業ユースケースにおけるLeForecastの展開とその性能についてレビューする。
論文 参考訳(メタデータ) (2025-03-27T02:58:06Z) - A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - A Two-Phase Recall-and-Select Framework for Fast Model Selection [13.385915962994806]
本稿では,2相モデル選択フレームワークを提案する。
これは、ベンチマークデータセット上でモデルのトレーニングパフォーマンスを活用することにより、堅牢なモデルを選択する効率を高めることを目的としている。
提案手法は,従来のベースライン法に比べて約3倍の速度でハイパフォーマンスモデルの選択を容易にすることが実証された。
論文 参考訳(メタデータ) (2024-03-28T14:44:44Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。