論文の概要: Seeking SOTA: Time-Series Forecasting Must Adopt Taxonomy-Specific Evaluation to Dispel Illusory Gains
- arxiv url: http://arxiv.org/abs/2603.15506v1
- Date: Mon, 16 Mar 2026 16:34:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.596916
- Title: Seeking SOTA: Time-Series Forecasting Must Adopt Taxonomy-Specific Evaluation to Dispel Illusory Gains
- Title(参考訳): ソータを探る : 分類学を取り入れなければならない時系列予測-Illusory Gainsを駆除するための顕著な評価
- Authors: Raeid Saqur, Christoph Bergmeir, Blanka Horvath, Daniel Schmidt, Frank Rudzicz, Terry Lyons,
- Abstract要約: 我々は、AI/ML時系列予測モデルを評価する現在の実践は、効率的な古典的手法の性能を見極めることで、実際の進歩を曖昧にしていると論じる。
これらの「標準」データセットは、しばしばより単純な線形または統計モデルによって効果的に捉えられる、支配的な自己相関パターンと季節周期を示す。
- 参考スコア(独自算出の注目度): 17.650604674194984
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We argue that the current practice of evaluating AI/ML time-series forecasting models, predominantly on benchmarks characterized by strong, persistent periodicities and seasonalities, obscures real progress by overlooking the performance of efficient classical methods. We demonstrate that these "standard" datasets often exhibit dominant autocorrelation patterns and seasonal cycles that can be effectively captured by simpler linear or statistical models, rendering complex deep learning architectures frequently no more performant than their classical counterparts for these specific data characteristics, and raising questions as to whether any marginal improvements justify the significant increase in computational overhead and model complexity. We call on the community to (I) retire or substantially augment current benchmarks with datasets exhibiting a wider spectrum of non-stationarities, such as structural breaks, time-varying volatility, and concept drift, and less predictable dynamics drawn from diverse real-world domains, and (II) require every deep learning submission to include robust classical and simple baselines, appropriately chosen for the specific characteristics of the downstream tasks' time series. By doing so, we will help ensure that reported gains reflect genuine scientific methodological advances rather than artifacts of benchmark selection favoring models adept at learning repetitive patterns.
- Abstract(参考訳): 我々は、AI/MLの時系列予測モデルを評価する現在の実践は、主に強固で永続的な周期性と季節性によって特徴づけられるベンチマークに基づいており、効率的な古典的手法の性能を見極めることで、実際の進歩を隠蔽していると論じる。
これらの「標準」データセットは、しばしば支配的な自己相関パターンや季節サイクルを示し、より単純な線形モデルや統計モデルによって効果的に捉えることができ、複雑なディープラーニングアーキテクチャは、これらの特定のデータ特性の古典的特徴よりもパフォーマンスが良くないことがしばしば示され、余分な改善が計算オーバーヘッドとモデルの複雑さの著しい増加を正当化するかどうかという疑問が提起される。
コミュニティは、(I)構造的破壊、時間変動ボラティリティ、コンセプトドリフトなど、より広い非定常性を示すデータセット、および様々な現実世界のドメインから引き出された予測可能なダイナミクス、そして(II)ダウンストリームタスクのタイムシリーズの特定の特性に対して適切に選択された、ロバストな古典的および単純なベースラインを含むように、あらゆるディープラーニングの提出を要求することを要求する。
そうすることで、繰り返しパターンの学習に適したモデルを好むベンチマーク選択の成果よりも、報告された利益が真の科学的方法論の進歩を反映することを保証する。
関連論文リスト
- StockBot 2.0: Vanilla LSTMs Outperform Transformer-based Forecasting for Stock Prices [0.0]
本稿では,近代的注意に基づく,畳み込み,反復的な時系列予測モデルを体系的に評価するStockBotアーキテクチャを提案する。
慎重に構築されたバニラLSTMは、予測精度とより安定した購買・販売決定を一貫して達成する。
論文 参考訳(メタデータ) (2026-01-01T04:09:51Z) - Entropy-Guided Token Dropout: Training Autoregressive Language Models with Limited Domain Data [89.96277093034547]
本研究では,エントロピー誘導型トークンドロップアウト方式であるEntroDropを導入する。
本稿では,EntroDropが標準正規化ベースラインを一貫して上回り,拡張型マルチエポックトレーニングを通じて堅牢な性能を維持していることを示す。
論文 参考訳(メタデータ) (2025-12-29T12:35:51Z) - SynTSBench: Rethinking Temporal Pattern Learning in Deep Learning Models for Time Series [11.314952720053464]
時系列予測モデルのための合成データ駆動評価パラダイムであるSynTSBenchを提案する。
本フレームワークは,3つのコア解析次元を持つ解釈可能な評価システムの構築と,相反する要因を分離する。
実験の結果,現在のディープラーニングモデルでは,時間的特徴のあらゆるタイプにおいて,最適なベースラインに普遍的にアプローチすることができないことがわかった。
論文 参考訳(メタデータ) (2025-10-23T06:59:38Z) - A Unified Frequency Domain Decomposition Framework for Interpretable and Robust Time Series Forecasting [81.73338008264115]
時系列予測の現在のアプローチは、時間領域であれ周波数領域であれ、主に線形層やトランスフォーマーに基づいたディープラーニングモデルを使用する。
本稿では,多種多様な時系列を数学的に抽象化する統合周波数領域分解フレームワークFIREを提案する。
火は長期予測ベンチマークで最先端のモデルを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-11T09:59:25Z) - Characteristic Root Analysis and Regularization for Linear Time Series Forecasting [9.254995889539716]
時系列予測は多くの領域において重要な課題である。
近年の研究では、単純な線形モデルの驚くほどの競争性が強調されている。
本稿では時間力学における特性根の役割に焦点を当てる。
論文 参考訳(メタデータ) (2025-09-28T03:06:30Z) - VARMA-Enhanced Transformer for Time Series Forecasting [4.982130518684668]
VARMAformerは、古典的な時系列分析の原理で、クロスアテンションのみのフレームワークの効率を相乗化する新しいアーキテクチャである。
これらの古典的な洞察を現代のバックボーンに融合させることで、VARMAformerはグローバル、長距離の依存関係と局所的な統計構造の両方をキャプチャする。
論文 参考訳(メタデータ) (2025-09-05T03:32:51Z) - Frequency-Constrained Learning for Long-Term Forecasting [15.31488551912888]
実世界の時系列は、物理法則、人間のルーチン、季節周期から生じる強い周期構造を示す。
現代の深層予測モデルは、スペクトルバイアスと周波数認識による誘導前兆の欠如により、繰り返し発生するパターンを捉えることができないことが多い。
本稿では,周期性を明示的にモデル化し,長期予測を効果的に行う手法を提案する。
論文 参考訳(メタデータ) (2025-08-02T22:12:15Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - Generative Modeling of Regular and Irregular Time Series Data via Koopman VAEs [50.25683648762602]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
KoVAEは、いくつかの挑戦的な合成および実世界の時系列生成ベンチマークにおいて、最先端のGANおよびVAEメソッドより優れている。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。