論文の概要: Two-stage hybrid models for enhancing forecasting accuracy on heterogeneous time series
- arxiv url: http://arxiv.org/abs/2502.08600v2
- Date: Fri, 07 Nov 2025 13:49:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.478049
- Title: Two-stage hybrid models for enhancing forecasting accuracy on heterogeneous time series
- Title(参考訳): 不均一時系列の予測精度向上のための2段階ハイブリッドモデル
- Authors: Junru Ren, Shaomin Wu,
- Abstract要約: 複数の時系列でトレーニングされた予測モデルは、グローバル時系列モデル(tsGM)と呼ばれる。
tsGMの利点は、与えられた時系列の集合が不均一であれば必ずしも実現されない。
- 参考スコア(独自算出の注目度): 0.9281671380673306
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A time series forecasting model--which is typically built on a single time series--is known as a local time series model (tsLM). In contrast, a forecasting model trained on multiple time series is referred to as a global time series model (tsGM). tsGMs can enhance forecasting accuracy and improve generalisation by learning cross-series information. As such, developing tsGMs has become a prominent research focus within the time series forecasting community. However, the benefits of tsGMs may not always be realised if the given set of time series is heterogeneous. While increasing model complexity can help tsGMs adapt to such a set of data, it can also increase the risk of overfitting and forecasting error. Additionally, the definition of homogeneity remains ambiguous in the literature. To address these challenges, this paper explores how to define data heterogeneity and proposes a two-stage modelling framework: At stage one, a tsGM is learnt to identify homogeneous patterns; and at stage two, tsLMs (e.g., ARIMA) or sub-tsGMs tailored to different groups are learnt to capture the heterogeneity. Numerical experiments on four open datasets demonstrate that the proposed approach significantly outperforms six state-of-the-art models. These results highlight its effectiveness in unlocking the full potential of global forecasting models for heterogeneous datasets.
- Abstract(参考訳): 時系列予測モデル - 通常は1つの時系列上に構築される - は、ローカル時系列モデル (tsLM) として知られている。
対照的に、複数の時系列でトレーニングされた予測モデルは、グローバル時系列モデル(tsGM)と呼ばれる。
tsGMは、シリーズ間情報を学習することで予測精度を高め、一般化を向上させることができる。
このように、tsGMの開発は、時系列予測コミュニティにおいて顕著な研究焦点となっている。
しかし、与えられた時系列の集合が不均一であれば、tsGMの利点は必ずしも実現されない。
モデル複雑性の増大は、tsGMがこのような一連のデータに適応するのに役立ちますが、過度な適合とエラー予測のリスクも高めます。
さらに、同質性の定義は文学においてあいまいである。
これらの課題に対処するために、データ不均一性の定義方法を考察し、2段階モデリングフレームワークを提案する。 ステージ1では、tsGMが均質なパターンを識別するために学習され、ステージ2では、異なるグループに調整されたtsLM(例えば、ARIMA)またはサブtsGMが、異質性を捉えるために学習される。
4つのオープンデータセットの数値実験により、提案手法が6つの最先端モデルを大幅に上回ることを示した。
これらの結果は、異種データセットに対するグローバル予測モデルの完全な可能性を解き放つ効果を浮き彫りにする。
関連論文リスト
- Breaking Silos: Adaptive Model Fusion Unlocks Better Time Series Forecasting [64.45587649141842]
時系列予測は多くの現実世界のアプリケーションにおいて重要な役割を果たす。
1つのモデルは、異なるテストサンプルで一貫して他よりも優れていますが、(ii) それぞれのモデルは特定のケースで優れています。
異種モデルのサンプルレベル適応融合による時系列予測のためのフレームワークであるTimeFuseを紹介する。
論文 参考訳(メタデータ) (2025-05-24T00:45:07Z) - Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - Context Neural Networks: A Scalable Multivariate Model for Time Series Forecasting [5.5711773076846365]
実世界の時系列は、しばしば孤立して取得できない複雑な相互依存性を示す。
本稿では,時系列モデルに関連性のある文脈洞察を付加する,効率的な線形複雑化手法であるContext Neural Networkを紹介する。
論文 参考訳(メタデータ) (2024-05-12T00:21:57Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - Ensembles of Localised Models for Time Series Forecasting [7.199741890914579]
本研究では,一般GFMや一変数モデルを用いたアンサンブル手法の活用について検討する。
私たちの作業は、クラスタリングシリーズやクラスタごとに別々のサブモデルのトレーニングなど、関連する現在のアプローチを体系化し比較します。
複数のGFMを複数のクラスタでトレーニングするクラスタアンサンブルの新しい方法論を提案します。
論文 参考訳(メタデータ) (2020-12-30T06:33:51Z) - Global Models for Time Series Forecasting: A Simulation Study [2.580765958706854]
自動回帰(AR)や季節ARのような単純なデータ生成プロセス(DGP)からカオスロジスティックマップ、自己興奮型閾値自動回帰、マッキーグラス方程式といった複雑なDGPまで、時系列をシミュレートする。
データセットの長さと系列数は、さまざまなシナリオで変化します。
我々はこれらのデータセットに対して,Recurrent Neural Networks (RNN), Feed-Forward Neural Networks, Pooled Regression (PR) Model, Light Gradient Boosting Models (LGBM)などの大域的予測モデルを用いて実験を行った。
論文 参考訳(メタデータ) (2020-12-23T04:45:52Z) - Unsupervised Learning of Global Factors in Deep Generative Models [6.362733059568703]
非i.i.dに基づく新しい深層生成モデルを提案する。
変分オートエンコーダ。
モデルがドメインアライメントを行い、相関関係を見つけ、異なるデータベース間で補間することを示す。
また、非自明な基礎構造を持つ観測群を区別するグローバル空間の能力についても研究する。
論文 参考訳(メタデータ) (2020-12-15T11:55:31Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - VAEM: a Deep Generative Model for Heterogeneous Mixed Type Data [16.00692074660383]
VAEMは2段階的に訓練された深層生成モデルである。
VAEMは、深層生成モデルをうまく展開できる現実世界のアプリケーションの範囲を広げることを示す。
論文 参考訳(メタデータ) (2020-06-21T23:47:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。