論文の概要: Ensembles of Localised Models for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2012.15059v1
- Date: Wed, 30 Dec 2020 06:33:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 06:03:40.983217
- Title: Ensembles of Localised Models for Time Series Forecasting
- Title(参考訳): 時系列予測のための局所モデルアンサンブル
- Authors: Rakshitha Godahewa, Kasun Bandara, Geoffrey I. Webb, Slawek Smyl,
Christoph Bergmeir
- Abstract要約: 本研究では,一般GFMや一変数モデルを用いたアンサンブル手法の活用について検討する。
私たちの作業は、クラスタリングシリーズやクラスタごとに別々のサブモデルのトレーニングなど、関連する現在のアプローチを体系化し比較します。
複数のGFMを複数のクラスタでトレーニングするクラスタアンサンブルの新しい方法論を提案します。
- 参考スコア(独自算出の注目度): 7.199741890914579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With large quantities of data typically available nowadays, forecasting
models that are trained across sets of time series, known as Global Forecasting
Models (GFM), are regularly outperforming traditional univariate forecasting
models that work on isolated series. As GFMs usually share the same set of
parameters across all time series, they often have the problem of not being
localised enough to a particular series, especially in situations where
datasets are heterogeneous. We study how ensembling techniques can be used with
generic GFMs and univariate models to solve this issue. Our work systematises
and compares relevant current approaches, namely clustering series and training
separate submodels per cluster, the so-called ensemble of specialists approach,
and building heterogeneous ensembles of global and local models. We fill some
gaps in the approaches and generalise them to different underlying GFM model
types. We then propose a new methodology of clustered ensembles where we train
multiple GFMs on different clusters of series, obtained by changing the number
of clusters and cluster seeds. Using Feed-forward Neural Networks, Recurrent
Neural Networks, and Pooled Regression models as the underlying GFMs, in our
evaluation on six publicly available datasets, the proposed models are able to
achieve significantly higher accuracy than baseline GFM models and univariate
forecasting methods.
- Abstract(参考訳): 今日では、大量のデータが利用可能になっているため、Global Forecasting Models (GFM)として知られる一連の時系列で訓練された予測モデルは、孤立した時系列で動作する従来の単変量予測モデルよりも定期的に優れている。
GFMは通常、すべての時系列で同じパラメータのセットを共有するため、特にデータセットが不均一な状況において、特定の時系列に十分に局所化されないという問題があることが多い。
本稿では,一般GFMとユニバリアイトモデルを用いて,この問題を解決する方法について検討する。
私たちの研究は,クラスタ単位の分離サブモデル,いわゆる専門家アンサンブルアプローチ,グローバルモデルとローカルモデルのヘテロジニアスアンサンブルの構築など,関連する現在のアプローチを体系化し,比較する。
アプローチのギャップを埋めて、異なる基盤となるGFMモデルタイプに一般化する。
次に,クラスタ数とクラスタ種数を変化させて,複数のgfmを連続するクラスタ上でトレーニングする,クラスターアンサンブルの新たな手法を提案する。
フィードフォワードニューラルネットワーク,リカレントニューラルネットワーク,プール回帰モデルを基礎となるGAMとして6つの公開データセットを評価した結果,提案モデルはベースラインGAMモデルや単変量予測手法よりもはるかに高い精度を達成できることがわかった。
関連論文リスト
- Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - Local vs. Global Models for Hierarchical Forecasting [0.0]
本研究では,情報活用が階層的予測の精度に与える影響について検討する。
我々は,クロスシリーズとクロス階層情報を活用するために,グローバル予測モデル(GFM)を開発した。
LightGBM に基づく2つの特定の GFM が導入された。
論文 参考訳(メタデータ) (2024-11-10T08:51:49Z) - GenBench: A Benchmarking Suite for Systematic Evaluation of Genomic Foundation Models [56.63218531256961]
我々はGenomic Foundation Modelsの有効性を評価するためのベンチマークスイートであるGenBenchを紹介する。
GenBenchはモジュラーで拡張可能なフレームワークを提供し、様々な最先端の方法論をカプセル化している。
本稿では,タスク固有性能におけるモデルアーキテクチャとデータセット特性の相互作用のニュアンス解析を行う。
論文 参考訳(メタデータ) (2024-06-01T08:01:05Z) - Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
課題群規則化(Task Groupings Regularization)は、矛盾するタスクをグループ化し整合させることにより、モデルの不均一性から恩恵を受ける新しいアプローチである。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Time series clustering based on prediction accuracy of global
forecasting models [0.0]
本稿では,時系列のモデルに基づくクラスタリング手法を提案する。
文献で提案されているほとんどの手法とは異なり、この手法はクラスタリング分割を構成する主要な要素として予測精度を考慮している。
シミュレーション実験により,クラスタリングの有効性と予測精度の両面で,本手法はいくつかの代替手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-04-30T13:12:19Z) - Few-Shot Forecasting of Time-Series with Heterogeneous Channels [4.635820333232681]
本研究では,時間的埋め込みを組み込んだ置換不変な深部集合ブロックからなるモデルを開発する。
実験を通して、我々のモデルはより単純なシナリオから実行されたベースラインよりも優れた一般化を提供することを示す。
論文 参考訳(メタデータ) (2022-04-07T14:02:15Z) - Global Models for Time Series Forecasting: A Simulation Study [2.580765958706854]
自動回帰(AR)や季節ARのような単純なデータ生成プロセス(DGP)からカオスロジスティックマップ、自己興奮型閾値自動回帰、マッキーグラス方程式といった複雑なDGPまで、時系列をシミュレートする。
データセットの長さと系列数は、さまざまなシナリオで変化します。
我々はこれらのデータセットに対して,Recurrent Neural Networks (RNN), Feed-Forward Neural Networks, Pooled Regression (PR) Model, Light Gradient Boosting Models (LGBM)などの大域的予測モデルを用いて実験を行った。
論文 参考訳(メタデータ) (2020-12-23T04:45:52Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Improving the Accuracy of Global Forecasting Models using Time Series
Data Augmentation [7.38079566297881]
GFM(Global Forecasting Models)として知られる多くの時系列のセットでトレーニングされた予測モデルは、競争や実世界のアプリケーションを予測する上で有望な結果を示している。
本稿では,GFMモデルのベースライン精度を向上させるための,データ拡張に基づく新しい予測フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-06T13:52:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。