論文の概要: A Unified Replay-based Continuous Learning Framework for Spatio-Temporal Prediction on Streaming Data
- arxiv url: http://arxiv.org/abs/2404.14999v1
- Date: Tue, 23 Apr 2024 13:02:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 14:01:50.117846
- Title: A Unified Replay-based Continuous Learning Framework for Spatio-Temporal Prediction on Streaming Data
- Title(参考訳): ストリーミングデータの時空間予測のための一元化リプレイ型継続的学習フレームワーク
- Authors: Hao Miao, Yan Zhao, Chenjuan Guo, Bin Yang, Kai Zheng, Feiteng Huang, Jiandong Xie, Christian S. Jensen,
- Abstract要約: 本稿では,ストリーミングデータの予測を可能にするために,リプレイベースの継続的学習フレームワークを提案する。
このフレームワークは、過去の知識を保存するために時間混合機構を使用してデータと融合した、以前に学習されたサンプルの再生バッファを含む。
- 参考スコア(独自算出の注目度): 26.570986572374085
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The widespread deployment of wireless and mobile devices results in a proliferation of spatio-temporal data that is used in applications, e.g., traffic prediction, human mobility mining, and air quality prediction, where spatio-temporal prediction is often essential to enable safety, predictability, or reliability. Many recent proposals that target deep learning for spatio-temporal prediction suffer from so-called catastrophic forgetting, where previously learned knowledge is entirely forgotten when new data arrives. Such proposals may experience deteriorating prediction performance when applied in settings where data streams into the system. To enable spatio-temporal prediction on streaming data, we propose a unified replay-based continuous learning framework. The framework includes a replay buffer of previously learned samples that are fused with training data using a spatio-temporal mixup mechanism in order to preserve historical knowledge effectively, thus avoiding catastrophic forgetting. To enable holistic representation preservation, the framework also integrates a general spatio-temporal autoencoder with a carefully designed spatio-temporal simple siamese (STSimSiam) network that aims to ensure prediction accuracy and avoid holistic feature loss by means of mutual information maximization. The framework further encompasses five spatio-temporal data augmentation methods to enhance the performance of STSimSiam. Extensive experiments on real data offer insight into the effectiveness of the proposed framework.
- Abstract(参考訳): 無線やモバイル機器の広範な展開は、安全、予測可能性、信頼性を実現するために時空間予測が不可欠である場合、例えば、交通予測、人間の移動マイニング、空気品質予測といったアプリケーションで使用される時空間データの拡散をもたらす。
時空間予測のための深層学習を目標とする近年の多くの提案は、それまでの知識が新しいデータが到着した時に完全に忘れられていた、いわゆる破滅的な忘れ込みに悩まされている。
このような提案は、データストリームがシステムに配信される設定に適用されると、予測性能が低下する可能性がある。
ストリーミングデータにおける時空間予測を可能にするために,再生型連続学習フレームワークを提案する。
このフレームワークは、過去の知識を効果的に保存するために、時空間混合機構を用いてトレーニングデータと融合した予め学習したサンプルの再生バッファを含み、破滅的な忘れを避ける。
また,汎用時空間オートエンコーダと慎重に設計した時空間単純シム(STSimSiam)ネットワークを統合し,相互情報の最大化による予測精度の確保と全体的特徴損失の回避を図る。
このフレームワークはさらにSTSimSiamの性能を高めるために5つの時空間データ拡張手法を含んでいる。
実データに関する大規模な実験は、提案したフレームワークの有効性についての洞察を提供する。
関連論文リスト
- Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - Expand and Compress: Exploring Tuning Principles for Continual Spatio-Temporal Graph Forecasting [17.530885640317372]
本稿では,新しいプロンプトチューニングに基づく連続予測手法を提案する。
具体的には,基本時相グラフニューラルネットワークと連続的なプロンプトプールをメモリに格納する。
この手法により、モデルが広範囲な時間的データストリームから逐次学習し、対応する期間のタスクを達成できる。
論文 参考訳(メタデータ) (2024-10-16T14:12:11Z) - Physics-guided Active Sample Reweighting for Urban Flow Prediction [75.24539704456791]
都市フロー予測は、バス、タクシー、ライド駆動モデルといった交通サービスのスループットを見積もる、微妙な時間的モデリングである。
最近の予測解は、物理学誘導機械学習(PGML)の概念による改善をもたらす。
我々は、PN(atized Physics-guided Network)を開発し、P-GASR(Physical-guided Active Sample Reweighting)を提案する。
論文 参考訳(メタデータ) (2024-07-18T15:44:23Z) - FlashST: A Simple and Universal Prompt-Tuning Framework for Traffic Prediction [22.265095967530296]
FlashSTは、トレーニング済みのモデルに適応して、さまざまなデータセットの特定の特性を一般化するフレームワークである。
事前トレーニングとダウンストリームデータのシフトを捉え、さまざまなシナリオへの効果的な適応を促進する。
実証的な評価は、さまざまなシナリオにおけるFlashSTの有効性を示している。
論文 参考訳(メタデータ) (2024-05-28T07:18:52Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Predicting Temporal Aspects of Movement for Predictive Replication in
Fog Environments [0.0]
ブラインドまたはリアクティブデータは、フォグコンピューティングのポテンシャルを利用するには不十分である。
時間的予測のためのHolt-Winterの指数平滑化を用いた新しいモデルを提案する。
実際のユーザトラジェクトリによるフォグネットワークシミュレーションでは,データ利用率を1%に抑えながら,余剰データの15%削減を実現している。
論文 参考訳(メタデータ) (2023-06-01T11:45:13Z) - Prediction-Powered Inference [68.97619568620709]
予測を用いた推論は、実験データセットに機械学習システムからの予測を補足した場合に有効な統計的推論を行うためのフレームワークである。
このフレームワークは、手段、量子、線形およびロジスティック回帰係数などの量に対して証明可能な信頼区間を計算するための単純なアルゴリズムを生成する。
予測による推論により、研究者は機械学習を使用して、より有効な、よりデータ効率の高い結論を導き出すことができる。
論文 参考訳(メタデータ) (2023-01-23T18:59:28Z) - Hybrid Predictive Coding: Inferring, Fast and Slow [62.997667081978825]
本稿では,反復型と償却型の両方を原則的に組み合わせたハイブリッド予測符号化ネットワークを提案する。
我々は,本モデルが本質的に不確実性に敏感であり,最小計算費用を用いて正確な信念を得るためにバランスを適応的にバランスさせることを実証した。
論文 参考訳(メタデータ) (2022-04-05T12:52:45Z) - Building Autocorrelation-Aware Representations for Fine-Scale
Spatiotemporal Prediction [1.2862507359003323]
本稿では,空間統計理論をニューラルネットワークに組み込んだ新しいディープラーニングアーキテクチャを提案する。
DeepLATTEには、局所的自己相関パターンとグローバルな自己相関傾向の両方を強制する、自己相関誘導半教師付き学習戦略が含まれている。
我々は,DeepLATTEの公開データを用いた実演を行い,健康上の重要なトピックとして,高度に適合した複雑な物理環境下での空気質予測を行った。
論文 参考訳(メタデータ) (2021-12-10T03:21:19Z) - Representation Learning for Sequence Data with Deep Autoencoding
Predictive Components [96.42805872177067]
本稿では,シーケンスデータの有用な表現が潜在空間における単純な構造を示すべきという直感に基づく,シーケンスデータの自己教師型表現学習法を提案する。
我々は,過去と将来のウィンドウ間の相互情報である潜在特徴系列の予測情報を最大化することにより,この潜時構造を奨励する。
提案手法は,ノイズの多い動的システムの潜時空間を復元し,タスク予測のための予測特徴を抽出し,エンコーダを大量の未ラベルデータで事前訓練する場合に音声認識を改善する。
論文 参考訳(メタデータ) (2020-10-07T03:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。