論文の概要: OneNet: Enhancing Time Series Forecasting Models under Concept Drift by
Online Ensembling
- arxiv url: http://arxiv.org/abs/2309.12659v1
- Date: Fri, 22 Sep 2023 06:59:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 15:41:01.649137
- Title: OneNet: Enhancing Time Series Forecasting Models under Concept Drift by
Online Ensembling
- Title(参考訳): OneNet:オンライン構築によるコンセプトドリフト下での時系列予測モデルの強化
- Authors: Yi-Fan Zhang, Qingsong Wen, Xue Wang, Weiqi Chen, Liang Sun, Zhang
Zhang, Liang Wang, Rong Jin, Tieniu Tan
- Abstract要約: ドリフト問題に対処するため,textbfOnline textbfensembling textbfNetwork (OneNet)を提案する。
OneNet は State-Of-The-Art (SOTA) 法と比較してオンライン予測エラーを $mathbf50%$ 以上削減する。
- 参考スコア(独自算出の注目度): 65.93805881841119
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online updating of time series forecasting models aims to address the concept
drifting problem by efficiently updating forecasting models based on streaming
data. Many algorithms are designed for online time series forecasting, with
some exploiting cross-variable dependency while others assume independence
among variables. Given every data assumption has its own pros and cons in
online time series modeling, we propose \textbf{On}line \textbf{e}nsembling
\textbf{Net}work (OneNet). It dynamically updates and combines two models, with
one focusing on modeling the dependency across the time dimension and the other
on cross-variate dependency. Our method incorporates a reinforcement
learning-based approach into the traditional online convex programming
framework, allowing for the linear combination of the two models with
dynamically adjusted weights. OneNet addresses the main shortcoming of
classical online learning methods that tend to be slow in adapting to the
concept drift. Empirical results show that OneNet reduces online forecasting
error by more than $\mathbf{50\%}$ compared to the State-Of-The-Art (SOTA)
method. The code is available at \url{https://github.com/yfzhang114/OneNet}.
- Abstract(参考訳): 時系列予測モデルのオンライン更新は,ストリーミングデータに基づく予測モデルを効率的に更新することにより,概念の漂流問題に対処することを目的としている。
多くのアルゴリズムはオンライン時系列予測のために設計されており、一部は変数間の独立性を前提としている。
すべてのデータ仮定がオンライン時系列モデリングにおいて独自の長所と短所を持つ場合、我々は \textbf{on}line \textbf{e}nsembling \textbf{net}work (onenet)を提案する。
動的に更新され、2つのモデルを組み合わせる。ひとつは時間次元の依存性をモデリングすること、もうひとつは変数間の依存性をモデリングすることに焦点を当てる。
本手法は,従来のオンライン凸プログラミングフレームワークに強化学習に基づくアプローチを取り入れ,動的に重み付けを調整した2つのモデルの線形結合を可能にする。
OneNetは、コンセプトドリフトへの適応が遅い傾向にある古典的なオンライン学習方法の主な欠点に対処する。
実験の結果,OneNet は State-Of-The-Art (SOTA) 法と比較して,オンライン予測誤差を $\mathbf{50\%}$ 以上削減することがわかった。
コードは \url{https://github.com/yfzhang114/onenet} で入手できる。
関連論文リスト
- Addressing Concept Shift in Online Time Series Forecasting: Detect-then-Adapt [37.98336090671441]
概念 textbfDrift textbfDetection antextbfD textbfAdaptation (D3A)
まずドリフトの概念を検知し、次に急激な適応の検出の後、現在のモデルをドリフトされた概念に積極的に適応する。
これは、トレイン-テストのパフォーマンスの不整合に寄与する重要な要因であるデータ分散ギャップを軽減するのに役立ちます。
論文 参考訳(メタデータ) (2024-03-22T04:44:43Z) - Federated Topic Model and Model Pruning Based on Variational Autoencoder [14.737942599204064]
フェデレートされたトピックモデリングにより、複数のパーティがデータのプライバシを保護しながらモデルを共同でトレーニングできる。
本稿では,各ノードのプライバシを確保しつつ,フェデレートされたトピックモデルを確立する手法を提案し,ニューラルネットワークモデルプルーニングを用いてモデルを高速化する。
実験結果から,フェデレートされたトピックモデルプルーニングは,モデルの性能を確保しつつ,モデルのトレーニング速度を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-11-01T06:00:14Z) - OFTER: An Online Pipeline for Time Series Forecasting [3.9962751777898955]
OFTERは、中規模の多変量時系列に適した時系列予測パイプラインである。
オンラインタスク用に特別に設計されており、解釈可能な出力を持ち、いくつかの最先端のアートベースラインを上回ります。
アルゴリズムの計算効率、オンラインの性質、低信号対雑音方式での運用能力により、OFTERは金融時系列問題に理想的なアプローチとなる。
論文 参考訳(メタデータ) (2023-04-08T00:18:03Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - A Study of Joint Graph Inference and Forecasting [13.340967777671565]
多変量時系列の予測を改善するためにグラフニューラルネットワーク(GNN)を用いた最近のモデルのクラスについて検討する。
グラフを微分可能な方法でパラメータ化することで、モデルは予測品質を改善することを目指している。
論文 参考訳(メタデータ) (2021-09-10T16:34:35Z) - Stabilizing Equilibrium Models by Jacobian Regularization [151.78151873928027]
ディープ均衡ネットワーク(Deep equilibrium Network, DEQs)は、単一非線形層の固定点を見つけるために従来の深さを推定する新しいモデルのクラスである。
本稿では、平衡モデルの学習を安定させるために、固定点更新方程式のヤコビアンを明示的に正規化するDECモデルの正規化スキームを提案する。
この正規化は計算コストを最小限に抑え、前方と後方の両方の固定点収束を著しく安定化させ、高次元の現実的な領域に順応することを示した。
論文 参考訳(メタデータ) (2021-06-28T00:14:11Z) - Radflow: A Recurrent, Aggregated, and Decomposable Model for Networks of
Time Series [77.47313102926017]
Radflowは、お互いに影響を与える時系列ネットワークの新しいモデルである。
それは3つの重要なアイデアを具現化します:時間に依存するノード埋め込み、マルチヘッドの注意を持つ隣接するノードからの影響の流れの集約、および時系列の多層分解を得るための繰り返しニューラルネットワーク。
radflowは異なる傾向や季節パターンを学習でき、欠落したノードやエッジに対して頑健であり、ネットワークの隣人間の時間パターンの相関は影響強度を反映している。
論文 参考訳(メタデータ) (2021-02-15T00:57:28Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z) - Reinforcement Learning based dynamic weighing of Ensemble Models for
Time Series Forecasting [0.8399688944263843]
データモデリングのために選択されたモデルが(線形/非線形、静的/動的)異なるモデルと独立(最小相関)モデルである場合、予測の精度が向上することが知られている。
アンサンブルモデルを重み付けするために文献で提案された様々なアプローチは、静的な重みセットを使用する。
この問題に対処するため、Reinforcement Learning (RL)アプローチでは、各モデルの重み付けを異なるタイミングで動的に割り当て、更新する。
論文 参考訳(メタデータ) (2020-08-20T10:40:42Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。