論文の概要: Proactive Model Adaptation Against Concept Drift for Online Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2412.08435v3
- Date: Fri, 07 Feb 2025 13:54:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:54:50.924932
- Title: Proactive Model Adaptation Against Concept Drift for Online Time Series Forecasting
- Title(参考訳): オンライン時系列予測のためのコンセプトドリフトに対する積極的モデル適応
- Authors: Lifan Zhao, Yanyan Shen,
- Abstract要約: 本稿では,オンライン時系列予測のための新しいプロアクティブモデル適応フレームワークを提案する。
Proceedは最初に、最近使用したトレーニングサンプルと現在のテストサンプルの間のコンセプトドリフトを推定する。
次に、推定ドリフトをパラメータ調整に効率的に変換するために適応生成器を使用する。
- 参考スコア(独自算出の注目度): 23.50574069148193
- License:
- Abstract: Time series forecasting always faces the challenge of concept drift, where data distributions evolve over time, leading to a decline in forecast model performance. Existing solutions are based on online learning, which continually organize recent time series observations as new training samples and update model parameters according to the forecasting feedback on recent data. However, they overlook a critical issue: obtaining ground-truth future values of each sample should be delayed until after the forecast horizon. This delay creates a temporal gap between the training samples and the test sample. Our empirical analysis reveals that the gap can introduce concept drift, causing forecast models to adapt to outdated concepts. In this paper, we present Proceed, a novel proactive model adaptation framework for online time series forecasting. Proceed first estimates the concept drift between the recently used training samples and the current test sample. It then employs an adaptation generator to efficiently translate the estimated drift into parameter adjustments, proactively adapting the model to the test sample. To enhance the generalization capability of the framework, Proceed is trained on synthetic diverse concept drifts. Extensive experiments on five real-world datasets across various forecast models demonstrate that Proceed brings more performance improvements than the state-of-the-art online learning methods, significantly facilitating forecast models' resilience against concept drifts. Code is available at https://github.com/SJTU-DMTai/OnlineTSF.
- Abstract(参考訳): 時系列予測は、データ分散が時間とともに進化し、予測モデルのパフォーマンスが低下するコンセプトドリフトの課題に常に直面する。
既存のソリューションはオンライン学習に基づいており、最近の時系列観測を新しいトレーニングサンプルとして継続的に整理し、最新のデータに対する予測フィードバックに従ってモデルパラメータを更新する。
しかし、これらは重要な問題を見落としており、各サンプルの真直な将来的な値を得るには、予測の地平線後まで遅らせるべきである。
この遅延は、トレーニングサンプルとテストサンプルの間に時間的ギャップを生じさせる。
我々の経験的分析は、このギャップが概念の漂流を生じさせ、予測モデルが時代遅れの概念に適応することを明らかにする。
本稿では,オンライン時系列予測のための新しいプロアクティブモデル適応フレームワークであるProceedを提案する。
Proceedは最初に、最近使用したトレーニングサンプルと現在のテストサンプルの間のコンセプトドリフトを推定する。
次に適応生成器を用いて、推定ドリフトをパラメータ調整に効率的に変換し、モデルを試験サンプルに積極的に適応させる。
フレームワークの一般化能力を高めるために、Proceedは合成多種多様なコンセプトドリフトに基づいて訓練されている。
さまざまな予測モデルにわたる5つの実世界のデータセットに対する大規模な実験は、Proceedが最先端のオンライン学習方法よりもパフォーマンスの向上をもたらし、予測モデルのコンセプトドリフトに対するレジリエンスを著しく促進していることを示している。
コードはhttps://github.com/SJTU-DM Tai/OnlineTSFで入手できる。
関連論文リスト
- On conditional diffusion models for PDE simulations [53.01911265639582]
スパース観測の予測と同化のためのスコアベース拡散モデルについて検討した。
本稿では,予測性能を大幅に向上させる自動回帰サンプリング手法を提案する。
また,条件付きスコアベースモデルに対する新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-10-21T18:31:04Z) - Future-Guided Learning: A Predictive Approach To Enhance Time-Series Forecasting [4.866362841501992]
本稿では,予測符号化にインスパイアされた動的フィードバック機構を通じて時系列イベント予測を強化するアプローチであるFuture-Guided Learningを紹介する。
本手法は2つのモデルから構成される: 重要事象を識別するために将来のデータを解析する検出モデルと、これらの事象を現在のデータに基づいて予測する予測モデルである。
脳波データを用いた発作予測ではAUC-ROCが44.8%増加し,非線形力学系ではMSEが48.7%減少した。
論文 参考訳(メタデータ) (2024-10-19T21:22:55Z) - DOTA: Distributional Test-Time Adaptation of Vision-Language Models [52.98590762456236]
トレーニングフリーテスト時動的アダプタ(TDA)は、この問題に対処するための有望なアプローチである。
単体テスト時間適応法(Dota)の簡易かつ効果的な方法を提案する。
Dotaは継続的にテストサンプルの分布を推定し、モデルがデプロイメント環境に継続的に適応できるようにします。
論文 参考訳(メタデータ) (2024-09-28T15:03:28Z) - Addressing Concept Shift in Online Time Series Forecasting: Detect-then-Adapt [37.98336090671441]
概念 textbfDrift textbfDetection antextbfD textbfAdaptation (D3A)
まずドリフトの概念を検知し、次に急激な適応の検出の後、現在のモデルをドリフトされた概念に積極的に適応する。
これは、トレイン-テストのパフォーマンスの不整合に寄与する重要な要因であるデータ分散ギャップを軽減するのに役立ちます。
論文 参考訳(メタデータ) (2024-03-22T04:44:43Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Predictive Churn with the Set of Good Models [64.05949860750235]
近似機械学習モデルの集合に対する競合予測の効果について検討する。
ラーショモン集合内のモデル間の係り受けに関する理論的結果を示す。
当社のアプローチは、コンシューマ向けアプリケーションにおいて、より予測し、削減し、混乱を避けるためにどのように使用できるかを示します。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - Handling Concept Drift in Global Time Series Forecasting [10.732102570751392]
我々は2つの新しい概念ドリフトハンドリング手法、すなわち、誤り寄与度重み付け(ECW)と勾配降下度重み付け(GDW)を提案する。
これらの手法は、最新のシリーズと全シリーズで個別に訓練された2つの予測モデルを使用し、最終的に2つのモデルが提供する予測の重み付け平均を最終予測と見なす。
論文 参考訳(メタデータ) (2023-04-04T03:46:25Z) - A Comprehensive Survey on Test-Time Adaptation under Distribution Shifts [117.72709110877939]
テスト時間適応(TTA)は、事前訓練されたモデルをテスト中に、予測する前にラベルのないデータに適応する可能性がある。
TTAはテスト時間領域適応、テスト時間バッチ適応、オンラインテスト時間適応といったテストデータの形態に基づいて、いくつかの異なるグループに分類される。
論文 参考訳(メタデータ) (2023-03-27T16:32:21Z) - DDG-DA: Data Distribution Generation for Predictable Concept Drift
Adaptation [34.03849669133438]
本稿では,データ分散の進化を効果的に予測できるDDG-DAを提案する。
具体的には、まず予測器を訓練して将来のデータ分布を推定し、次にそれを利用してトレーニングサンプルを生成し、最後に生成されたデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2022-01-11T16:34:29Z) - Back2Future: Leveraging Backfill Dynamics for Improving Real-time
Predictions in Future [73.03458424369657]
公衆衛生におけるリアルタイム予測では、データ収集は簡単で要求の多いタスクである。
過去の文献では「バックフィル」現象とそのモデル性能への影響についてはほとんど研究されていない。
我々は、与えられたモデルの予測をリアルタイムで洗練することを目的とした、新しい問題とニューラルネットワークフレームワークBack2Futureを定式化する。
論文 参考訳(メタデータ) (2021-06-08T14:48:20Z) - New Perspectives on the Use of Online Learning for Congestion Level
Prediction over Traffic Data [6.664111208927475]
本研究は時系列データによる分類に焦点を当てる。
非定常現象によって時系列が生成されると、予測されるクラスと系列に関連するパターンは時間とともに進化する。
オンライン学習方法は、時間とともに到着する新しいデータサンプルから漸進的に学習し、データストリームに沿った最終的な変更に対応する。
論文 参考訳(メタデータ) (2020-03-27T09:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。