論文の概要: Diversified Scaling Inference in Time Series Foundation Models
- arxiv url: http://arxiv.org/abs/2601.17376v1
- Date: Sat, 24 Jan 2026 08:53:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.697933
- Title: Diversified Scaling Inference in Time Series Foundation Models
- Title(参考訳): 時系列基礎モデルにおける多様なスケーリング推論
- Authors: Ruijin Hua, Zichuan Liu, Kun Zhang, Yiyuan Yang,
- Abstract要約: この研究は、標準サンプリングベース推論スケーリングの下でTSFMはどのように振る舞うか、そしてサンプリングの多様性を制御できるかという2つの質問を体系的に調査する。
まず、標準サンプリング下でのTSFMの特性について検討するが、解空間の探索が不十分なため、しばしばスケーリング法則に従わない。
次に, 時系列摂動による多様な推論スケーリングを探索し, 生成的分布の支援を拡大する。
- 参考スコア(独自算出の注目度): 17.268760626931517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advancement of Time Series Foundation Models (TSFMs) has been driven primarily by large-scale pre-training, but inference-time compute potential remains largely untapped. This work systematically investigates two questions: how do TSFMs behave under standard sampling-based inference scaling, and can controlled sampling diversity enhance performance? We first examine the properties of TSFMs under standard sampling often fail to adhere to scaling laws due to insufficient exploration of the solution space. Building on this, we then delve into diversified inference scaling via tailored time series perturbations to expand the generative distribution's support. We theoretically analyze the diversity-fidelity trade-off and derive a critical sample threshold for diversified sampling to outperform standard sampling. Extensive experiments across various TSFMs and datasets show proper diversified inference scaling yields substantial performance gains without parameter updates, establishing inference design as a critical, compute-efficient dimension of TSFM optimization. As an application, we propose RobustMSE, a rigorous metric to quantify the headroom performance of TSFM under a fixed budget. Overall, our findings clarify these factor interactions, enabling reliable performance via diverse large-scale inference time series in parallel environments without re-training TSFMs.
- Abstract(参考訳): 時系列基礎モデル(TSFM)の進歩は、主に大規模な事前訓練によって進められてきたが、推論時間計算の可能性はほとんど未発達のままである。
この研究は、標準サンプリングベース推論スケーリングの下でTSFMはどのように振る舞うか、そしてサンプリングの多様性を制御できるかという2つの質問を体系的に調査する。
まず、標準サンプリング下でのTSFMの特性について検討するが、解空間の探索が不十分なため、しばしばスケーリング法則に従わない。
これに基づいて、我々は、生成的分布の支持を拡大するために、調整された時系列摂動による多様な推論スケーリングを探索する。
我々は, 多様性と忠実性のトレードオフを理論的に解析し, 標準サンプリングを上回り, 多様なサンプリングを行うための重要なサンプル閾値を導出する。
様々なTSFMとデータセットにわたる大規模な実験により、パラメータの更新なしに適切に多様化された推論スケーリングがかなりの性能向上をもたらすことが示され、TSFM最適化の重要な計算効率の次元として推論設計が確立された。
本稿では,TSFMの頭部性能を固定予算で定量化するための厳密な指標であるRobustMSEを提案する。
本研究は,これらの因子間の相互作用を解明し,TSFMを再学習することなく,様々な大規模推論時系列を並列環境で実行し,信頼性の高い性能を実現することを目的とした。
関連論文リスト
- UniDiff: A Unified Diffusion Framework for Multimodal Time Series Forecasting [90.47915032778366]
マルチモーダル時系列予測のための統合拡散フレームワークUniDiffを提案する。
コアには統一的で並列な融合モジュールがあり、単一のクロスアテンション機構がタイムスタンプからの構造化情報とテキストからのセマンティックコンテキストを統合する。
8つの領域にわたる実世界のベンチマークデータセットの実験は、提案したUniDiffモデルが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-12-08T05:36:14Z) - Synapse: Adaptive Arbitration of Complementary Expertise in Time Series Foundational Models [50.877082340479085]
時系列基礎モデル (TSFM) の違いが, 様々な予測設定にまたがって, 特定の性能プロファイルを示すかを検討する。
TSFMの新しい調停フレームワークであるSynapseを提案する。
その結果、Synapseは個々のTSFMだけでなく、他の一般的なアンサンブル技術よりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2025-11-07T18:01:51Z) - A Unified Frequency Domain Decomposition Framework for Interpretable and Robust Time Series Forecasting [81.73338008264115]
時系列予測の現在のアプローチは、時間領域であれ周波数領域であれ、主に線形層やトランスフォーマーに基づいたディープラーニングモデルを使用する。
本稿では,多種多様な時系列を数学的に抽象化する統合周波数領域分解フレームワークFIREを提案する。
火は長期予測ベンチマークで最先端のモデルを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-11T09:59:25Z) - Multi-Scale Finetuning for Encoder-based Time Series Foundation Models [67.95907033226585]
時系列基礎モデル (TSFM) は, 時系列予測において印象的なゼロショット性能を示す。
直感的な微調整はパフォーマンスの向上をもたらすが、TSFMの能力を完全に活用するには不十分である、と我々は主張する。
マルチスケール・ファインタニング(MSFT)は,マルチスケール・モデリングをファインタニング・プロセスに明示的に統合する,シンプルながら汎用的なフレームワークである。
論文 参考訳(メタデータ) (2025-06-17T01:06:01Z) - Less is More: Unlocking Specialization of Time Series Foundation Models via Structured Pruning [27.23328609888911]
時系列基礎モデル 広大なパラメータを事前訓練し、驚くべきゼロショット予測性能を達成する。
驚くべきことに、微調整後も、TSFMは、フルショットダウンストリームデータでトレーニングされた、より小さな、特殊なモデルよりも一貫してパフォーマンスを向上することはできない。
より関連性が高くコンパクトなパラメータ空間に焦点を合わせることにより、その後の微調整プロセスを正規化するための構造化プルーニング法を提案する。
論文 参考訳(メタデータ) (2025-05-29T07:33:49Z) - AdaPTS: Adapting Univariate Foundation Models to Probabilistic Multivariate Time Series Forecasting [10.899510048905926]
本稿では,機能間の複雑な依存関係を管理し,予測の不確実性を定量化するアダプタを提案する。
合成データセットと実世界のデータセットの両方で実施された実験により、アダプタの有効性が確認された。
私たちのフレームワークであるAdaPTSは、アダプタをモジュール的でスケーラブルで効果的なソリューションとして位置づけています。
論文 参考訳(メタデータ) (2025-02-14T15:46:19Z) - FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - TSFM-Bench: A Comprehensive and Unified Benchmark of Foundation Models for Time Series Forecasting [35.505530132151]
時系列予測(TSF)は、金融投資、気象サービス、エネルギー管理など、多くの分野で重要な機能である。
多くのTSFメソッドはドメイン固有のデータ収集とモデルトレーニングを必要とし、他のドメインに適用してもうまく一般化しない。
大規模な異種時系列データに基づいて事前訓練された時系列基礎モデル(TSFM)は、これらの制限を克服することを目的としている。
論文 参考訳(メタデータ) (2024-10-15T17:23:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。