論文の概要: Spectral Predictability as a Fast Reliability Indicator for Time Series Forecasting Model Selection
- arxiv url: http://arxiv.org/abs/2511.08884v1
- Date: Thu, 13 Nov 2025 01:13:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.279858
- Title: Spectral Predictability as a Fast Reliability Indicator for Time Series Forecasting Model Selection
- Title(参考訳): 時系列予測モデル選択のための高速信頼性指標としてのスペクトル予測可能性
- Authors: Oliver Wang, Pengrui Quan, Kang Yang, Mani Srivastava,
- Abstract要約: スペクトル予測可能性$$は単純な信号処理メトリックです。
スペクトル予測可能性$$は、モデルファミリーのパフォーマンスを体系的に階層化することを示す。
我々は、$$が予測可能なモデル性能を成層化し、実用的なファーストパスフィルタを提供することを示した。
- 参考スコア(独自算出の注目度): 10.800114993373304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Practitioners deploying time series forecasting models face a dilemma: exhaustively validating dozens of models is computationally prohibitive, yet choosing the wrong model risks poor performance. We show that spectral predictability~$Ω$ -- a simple signal processing metric -- systematically stratifies model family performance, enabling fast model selection. We conduct controlled experiments in four different domains, then further expand our analysis to 51 models and 28 datasets from the GIFT-Eval benchmark. We find that large time series foundation models (TSFMs) systematically outperform lightweight task-trained baselines when $Ω$ is high, while their advantage vanishes as $Ω$ drops. Computing $Ω$ takes seconds per dataset, enabling practitioners to quickly assess whether their data suits TSFM approaches or whether simpler, cheaper models suffice. We demonstrate that $Ω$ stratifies model performance predictably, offering a practical first-pass filter that reduces validation costs while highlighting the need for models that excel on genuinely difficult (low-$Ω$) problems rather than merely optimizing easy ones.
- Abstract(参考訳): 数十のモデルを徹底的に検証することは、計算的に禁止されるが、間違ったモデルを選択するとパフォーマンスが低下する。
スペクトル予測可能性~$Ω$ -- 単純な信号処理指標 -- は、モデルファミリーの性能を体系的に階層化し、高速なモデル選択を可能にすることを示す。
4つの異なる領域で制御された実験を行い、さらに分析をGIFT-Evalベンチマークから51のモデルと28のデータセットに拡張した。
大時系列基礎モデル(TSFM)は$Ω$が高ければ軽量タスク訓練ベースラインを体系的に上回り、その利点は$Ω$ドロップとして消滅する。
1データセットあたりの$Ω$は秒を要し、実践者は自分のデータがTSFMアプローチに適合するか、よりシンプルで安価なモデルで十分かどうかをすばやく評価できる。
我々は,$Ω$がモデル性能を予測可能な階層化を実現し,検証コストを低減し,真に難しい(低い$$$)問題に対処するモデルの必要性を強調しながら,簡単なものだけを最適化する,実用的なファーストパスフィルタを提供することを実証した。
関連論文リスト
- Evaluation of a Foundational Model and Stochastic Models for Forecasting Sporadic or Spiky Production Outages of High-Performance Machine Learning Services [0.0]
我々は、最先端の機械学習サービスの散発的またはスパイクな生産停止を予測するために、最先端の基礎モデルを最適化する。
この分析は、各評価されたモデルが、散発的またはスパイクなイベントに対してどのように機能するかを理解するのに役立ちます。
最適なパラメータを持つモデルを用いて、6%未満の値誤差を持つ特定の根本原因の1年間の障害統計を推定する。
論文 参考訳(メタデータ) (2025-06-30T23:59:12Z) - Breaking Silos: Adaptive Model Fusion Unlocks Better Time Series Forecasting [64.45587649141842]
時系列予測は多くの現実世界のアプリケーションにおいて重要な役割を果たす。
1つのモデルは、異なるテストサンプルで一貫して他よりも優れていますが、(ii) それぞれのモデルは特定のケースで優れています。
異種モデルのサンプルレベル適応融合による時系列予測のためのフレームワークであるTimeFuseを紹介する。
論文 参考訳(メタデータ) (2025-05-24T00:45:07Z) - Temporal Feature Matters: A Framework for Diffusion Model Quantization [105.3033493564844]
拡散モデルはマルチラウンド・デノナイジングの時間ステップに依存している。
3つの戦略を含む新しい量子化フレームワークを導入する。
このフレームワークは時間情報のほとんどを保存し、高品質なエンドツーエンド生成を保証する。
論文 参考訳(メタデータ) (2024-07-28T17:46:15Z) - A Training Rate and Survival Heuristic for Inference and Robustness Evaluation (TRASHFIRE) [1.622320874892682]
この研究は、特定のモデルハイパーパラメータが、相手の存在下でモデルの性能にどのように影響するかを理解し予測する問題に対処する。
提案手法では、サバイバルモデル、最悪の例、コスト認識分析を用いて、特定のモデル変更を正確かつ正確に拒否する。
提案手法を用いて、最も単純なホワイトボックス攻撃に対して、ResNetは絶望的に反対であることを示す。
論文 参考訳(メタデータ) (2024-01-24T19:12:37Z) - TFMQ-DM: Temporal Feature Maintenance Quantization for Diffusion Models [52.454274602380124]
拡散モデルは非常に時間ステップ$t$に大きく依存し、良好なマルチラウンドデノジングを実現している。
本稿では,時間情報ブロック上に構築した時間的特徴保守量子化(TFMQ)フレームワークを提案する。
先駆的なブロック設計により、時間情報認識再構成(TIAR)と有限集合キャリブレーション(FSC)を考案し、完全な時間的特徴を整列させる。
論文 参考訳(メタデータ) (2023-11-27T12:59:52Z) - Breaking Boundaries: Balancing Performance and Robustness in Deep
Wireless Traffic Forecasting [11.029214459961114]
正確性と堅牢性の間のトレードオフのバランスをとることは、時系列予測における長年の課題である。
本研究では,様々な摂動シナリオを考察し,実世界の通信データを用いた敵攻撃に対する防御機構を提案する。
論文 参考訳(メタデータ) (2023-11-16T11:10:38Z) - On Optimal Caching and Model Multiplexing for Large Model Inference [66.50550915522551]
大きな言語モデル(LLM)や他の大きな基盤モデルは注目すべき成功を収めているが、そのサイズは既存のリソース消費とレイテンシーの問題を悪化させている。
キャッシュを用いて以前のクエリを格納し、モデルの多重化を学習し、クエリ処理のためのモデルの集合から選択する。
論文 参考訳(メタデータ) (2023-06-03T05:01:51Z) - A Worrying Analysis of Probabilistic Time-series Models for Sales
Forecasting [10.690379201437015]
確率的時系列モデルは、不確実性の下で最適な決定を下すのに役立つため、予測分野で人気がある。
販売予測のための3つの顕著な確率的時系列モデルの性能解析を行った。
論文 参考訳(メタデータ) (2020-11-21T03:31:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。