論文の概要: Ensembles of Localised Models for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2012.15059v1
- Date: Wed, 30 Dec 2020 06:33:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 06:03:40.983217
- Title: Ensembles of Localised Models for Time Series Forecasting
- Title(参考訳): 時系列予測のための局所モデルアンサンブル
- Authors: Rakshitha Godahewa, Kasun Bandara, Geoffrey I. Webb, Slawek Smyl,
Christoph Bergmeir
- Abstract要約: 本研究では,一般GFMや一変数モデルを用いたアンサンブル手法の活用について検討する。
私たちの作業は、クラスタリングシリーズやクラスタごとに別々のサブモデルのトレーニングなど、関連する現在のアプローチを体系化し比較します。
複数のGFMを複数のクラスタでトレーニングするクラスタアンサンブルの新しい方法論を提案します。
- 参考スコア(独自算出の注目度): 7.199741890914579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With large quantities of data typically available nowadays, forecasting
models that are trained across sets of time series, known as Global Forecasting
Models (GFM), are regularly outperforming traditional univariate forecasting
models that work on isolated series. As GFMs usually share the same set of
parameters across all time series, they often have the problem of not being
localised enough to a particular series, especially in situations where
datasets are heterogeneous. We study how ensembling techniques can be used with
generic GFMs and univariate models to solve this issue. Our work systematises
and compares relevant current approaches, namely clustering series and training
separate submodels per cluster, the so-called ensemble of specialists approach,
and building heterogeneous ensembles of global and local models. We fill some
gaps in the approaches and generalise them to different underlying GFM model
types. We then propose a new methodology of clustered ensembles where we train
multiple GFMs on different clusters of series, obtained by changing the number
of clusters and cluster seeds. Using Feed-forward Neural Networks, Recurrent
Neural Networks, and Pooled Regression models as the underlying GFMs, in our
evaluation on six publicly available datasets, the proposed models are able to
achieve significantly higher accuracy than baseline GFM models and univariate
forecasting methods.
- Abstract(参考訳): 今日では、大量のデータが利用可能になっているため、Global Forecasting Models (GFM)として知られる一連の時系列で訓練された予測モデルは、孤立した時系列で動作する従来の単変量予測モデルよりも定期的に優れている。
GFMは通常、すべての時系列で同じパラメータのセットを共有するため、特にデータセットが不均一な状況において、特定の時系列に十分に局所化されないという問題があることが多い。
本稿では,一般GFMとユニバリアイトモデルを用いて,この問題を解決する方法について検討する。
私たちの研究は,クラスタ単位の分離サブモデル,いわゆる専門家アンサンブルアプローチ,グローバルモデルとローカルモデルのヘテロジニアスアンサンブルの構築など,関連する現在のアプローチを体系化し,比較する。
アプローチのギャップを埋めて、異なる基盤となるGFMモデルタイプに一般化する。
次に,クラスタ数とクラスタ種数を変化させて,複数のgfmを連続するクラスタ上でトレーニングする,クラスターアンサンブルの新たな手法を提案する。
フィードフォワードニューラルネットワーク,リカレントニューラルネットワーク,プール回帰モデルを基礎となるGAMとして6つの公開データセットを評価した結果,提案モデルはベースラインGAMモデルや単変量予測手法よりもはるかに高い精度を達成できることがわかった。
関連論文リスト
- Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - Few-Shot Forecasting of Time-Series with Heterogeneous Channels [4.635820333232681]
本研究では,時間的埋め込みを組み込んだ置換不変な深部集合ブロックからなるモデルを開発する。
実験を通して、我々のモデルはより単純なシナリオから実行されたベースラインよりも優れた一般化を提供することを示す。
論文 参考訳(メタデータ) (2022-04-07T14:02:15Z) - Adversarially-regularized mixed effects deep learning (ARMED) models for
improved interpretability, performance, and generalization on clustered data [0.974672460306765]
混合効果モデルは、クラスタ固有のランダム効果からクラスター不変、集団レベルの固定効果を分離する。
本稿では,既存ネットワークへの3つの非侵襲的な付加を通じて,Adversarially-Regularized Mixed Effects Deep Learning (ARMED)モデルを構築するための汎用フレームワークを提案する。
この枠組みを, シミュレーション, 認知症予後診断, 細胞顕微鏡などの4つの応用に適用し, DFNN, 畳み込みニューラルネットワーク, オートエンコーダに適用した。
論文 参考訳(メタデータ) (2022-02-23T20:58:22Z) - Riemannian Score-Based Generative Modeling [56.20669989459281]
経験的性能を示すスコアベース生成モデル(SGM)を紹介する。
現在のSGMは、そのデータが平坦な幾何学を持つユークリッド多様体上で支えられているという前提を定めている。
これにより、ロボット工学、地球科学、タンパク質モデリングの応用にこれらのモデルを使用することができない。
論文 参考訳(メタデータ) (2022-02-06T11:57:39Z) - Evaluating Generalization in Classical and Quantum Generative Models [68.8204255655161]
我々は、生成モデルの一般化能力を評価するための単純で曖昧なアプローチを構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
論文 参考訳(メタデータ) (2022-01-21T16:35:35Z) - MECATS: Mixture-of-Experts for Quantile Forecasts of Aggregated Time
Series [11.826510794042548]
我々はtexttMECATS という異種の専門家フレームワークを混合して導入する。
集約階層を通じて関連付けられた時系列の集合の値を同時に予測する。
異なる種類の予測モデルを個別の専門家として使用することで、各モデルの形式を対応する時系列の性質に合わせて調整することができる。
論文 参考訳(メタデータ) (2021-12-22T05:05:30Z) - Cluster-and-Conquer: A Framework For Time-Series Forecasting [94.63501563413725]
本稿では,高次元時系列データを予測するための3段階フレームワークを提案する。
当社のフレームワークは非常に汎用的で,各ステップで時系列予測やクラスタリングが利用可能です。
単純な線形自己回帰モデルでインスタンス化されると、いくつかのベンチマークデータセットで最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-10-26T20:41:19Z) - Deep Autoregressive Models with Spectral Attention [74.08846528440024]
本稿では,深部自己回帰モデルとスペクトル注意(SA)モジュールを組み合わせた予測アーキテクチャを提案する。
時系列の埋め込みをランダムなプロセスの発生としてスペクトル領域に特徴付けることにより,グローバルな傾向と季節パターンを同定することができる。
時系列に対するグローバルとローカルの2つのスペクトルアテンションモデルは、この情報を予測の中に統合し、スペクトルフィルタリングを行い、時系列のノイズを除去する。
論文 参考訳(メタデータ) (2021-07-13T11:08:47Z) - Novelty Detection in Sequential Data by Informed Clustering and Modeling [7.647250081001171]
正常なシーケンスをモデル化し、モデル予測から新しいシーケンスのずれを測定することで、新規性を検出することができる。
本稿では、離散シーケンスクラスタリングに最先端のビジュアル分析ツールを適用し、ドメインの専門家から情報クラスタを得る。
本手法は,3つの実世界のアプリケーションシナリオにおいて,離散シーケンスに対する最先端のノベルティ検出手法より優れる。
論文 参考訳(メタデータ) (2021-03-05T20:58:24Z) - Model-Attentive Ensemble Learning for Sequence Modeling [86.4785354333566]
シーケンスモデリング(MAES)のためのモデル・アテンティブ・アンサンブル・ラーニングを提案する。
MAESは、異なるシーケンスダイナミクスの専門家を専門とし、予測を適応的に重み付けるために、注目ベースのゲーティングメカニズムを利用する時系列の専門家の混合物です。
MAESが時系列シフトを受けるデータセットの人気シーケンスモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-02-23T05:23:35Z) - Global Models for Time Series Forecasting: A Simulation Study [2.580765958706854]
自動回帰(AR)や季節ARのような単純なデータ生成プロセス(DGP)からカオスロジスティックマップ、自己興奮型閾値自動回帰、マッキーグラス方程式といった複雑なDGPまで、時系列をシミュレートする。
データセットの長さと系列数は、さまざまなシナリオで変化します。
我々はこれらのデータセットに対して,Recurrent Neural Networks (RNN), Feed-Forward Neural Networks, Pooled Regression (PR) Model, Light Gradient Boosting Models (LGBM)などの大域的予測モデルを用いて実験を行った。
論文 参考訳(メタデータ) (2020-12-23T04:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。