論文の概要: SpecSTG: A Fast Spectral Diffusion Framework for Probabilistic Spatio-Temporal Traffic Forecasting
- arxiv url: http://arxiv.org/abs/2401.08119v3
- Date: Tue, 6 Aug 2024 23:09:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-08 18:13:59.292599
- Title: SpecSTG: A Fast Spectral Diffusion Framework for Probabilistic Spatio-Temporal Traffic Forecasting
- Title(参考訳): SpecSTG:確率的時空間トラフィック予測のための高速スペクトル拡散フレームワーク
- Authors: Lequan Lin, Dai Shi, Andi Han, Junbin Gao,
- Abstract要約: SpecSTGはトラフィック時間グラフ学習のための新しいスペクトル拡散フレームワークである。
将来の時系列のフーリエ表現を生成し、学習プロセスを空間情報に富んだスペクトル領域に変換する。
最先端技術と比較すると、SpecSTGはポイント推定において最大8%の改善を達成し、将来の不確実性を定量化するために最大0.78%の改善を達成している。
- 参考スコア(独自算出の注目度): 29.55810183838032
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traffic forecasting, a crucial application of spatio-temporal graph (STG) learning, has traditionally relied on deterministic models for accurate point estimations. Yet, these models fall short of quantifying future uncertainties. Recently, many probabilistic methods, especially variants of diffusion models, have been proposed to fill this gap. However, existing diffusion methods typically deal with individual sensors separately when generating future time series, resulting in limited usage of spatial information in the probabilistic learning process. In this work, we propose SpecSTG, a novel spectral diffusion framework, to better leverage spatial dependencies and systematic patterns inherent in traffic data. More specifically, our method generates the Fourier representation of future time series, transforming the learning process into the spectral domain enriched with spatial information. Additionally, our approach incorporates a fast spectral graph convolution designed for Fourier input, alleviating the computational burden associated with existing models. Compared with state-of-the-arts, SpecSTG achieves up to 8% improvements on point estimations and up to 0.78% improvements on quantifying future uncertainties. Furthermore, SpecSTG's training and validation speed is 3.33X of the most efficient existing diffusion method for STG forecasting. The source code for SpecSTG is available at https://anonymous.4open.science/r/SpecSTG.
- Abstract(参考訳): 時空間グラフ(STG)学習の重要な応用である交通予測は、伝統的に正確な点推定のための決定論的モデルに依存してきた。
しかし、これらのモデルは将来の不確実性を定量化するには至っていない。
近年、このギャップを埋めるために多くの確率的手法、特に拡散モデルの変種が提案されている。
しかし、既存の拡散法は、将来の時系列を生成する際に個別のセンサを別々に扱うのが一般的であり、確率論的学習プロセスにおける空間情報の限られた使用法となる。
本研究では,交通データに固有の空間依存性と系統的パターンをよりよく活用する新しいスペクトル拡散フレームワークであるSpecSTGを提案する。
具体的には,学習過程を空間情報に富んだスペクトル領域に変換することによって,未来時系列のフーリエ表現を生成する。
さらに,Fourier入力用に設計された高速スペクトルグラフ畳み込みを導入し,既存のモデルに付随する計算負担を軽減する。
最先端技術と比較すると、SpecSTGはポイント推定において最大8%の改善を達成し、将来の不確実性を定量化する上で最大0.78%の改善を達成している。
さらに、SpecSTGのトレーニングと検証の速度は、STG予測のための最も効率的な既存の拡散法の3.33倍である。
SpecSTGのソースコードはhttps://anonymous.4open.science/r/SpecSTGで入手できる。
関連論文リスト
- ProGen: Revisiting Probabilistic Spatial-Temporal Time Series Forecasting from a Continuous Generative Perspective Using Stochastic Differential Equations [18.64802090861607]
ProGen Proは、不確実性を管理しながら依存関係を効果的にキャプチャする堅牢なソリューションを提供する。
4つのベンチマークトラフィックデータセットの実験により、ProGen Proは最先端の決定論的確率モデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-11-02T14:37:30Z) - Scalable Spatiotemporal Prediction with Bayesian Neural Fields [3.3299088915999295]
BayesNFは、高容量関数推定のための新しいディープニューラルネットワークアーキテクチャである。
気候および公衆衛生データセットからの統計的機械学習予測問題に対してベイズNFを評価した。
論文 参考訳(メタデータ) (2024-03-12T13:47:50Z) - Towards Flexible Time-to-event Modeling: Optimizing Neural Networks via
Rank Regression [17.684526928033065]
我々はDART(Time-to-event Prediction)のためのDeep AFT Rank-regressionモデルを導入する。
このモデルは、表現学習において効率的で信頼性の高いゲハンのランク統計に基づく客観的関数を用いる。
提案手法は, 生存時間分布に分布仮定を課さない半パラメトリックなAFTモデリング手法である。
論文 参考訳(メタデータ) (2023-07-16T13:58:28Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z) - DiffSTG: Probabilistic Spatio-Temporal Graph Forecasting with Denoising
Diffusion Models [53.67562579184457]
本稿では,不確実性や複雑な依存関係のモデル化が困難であることから,確率的STG予測に焦点をあてる。
本稿では,一般的な拡散モデルをSTGに一般化する最初の試みとして,DiffSTGと呼ばれる新しい非自己回帰フレームワークを提案する。
提案手法は,本質的時間学習能力STNNと拡散モデルの不確実性測定を組み合わせたものである。
論文 参考訳(メタデータ) (2023-01-31T13:42:36Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - Deep-Ensemble-Based Uncertainty Quantification in Spatiotemporal Graph
Neural Networks for Traffic Forecasting [2.088376060651494]
本稿では,短期交通予測のための最先端手法である拡散畳み込みリカレントニューラルネットワーク(DCRNN)に注目した。
我々はDCRNNの不確実性を定量化するスケーラブルなディープアンサンブル手法を開発した。
我々の汎用的かつスケーラブルなアプローチは、現在最先端のベイズ的手法や、多くの一般的な頻繁な手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-04T16:10:55Z) - Deep Autoregressive Models with Spectral Attention [74.08846528440024]
本稿では,深部自己回帰モデルとスペクトル注意(SA)モジュールを組み合わせた予測アーキテクチャを提案する。
時系列の埋め込みをランダムなプロセスの発生としてスペクトル領域に特徴付けることにより,グローバルな傾向と季節パターンを同定することができる。
時系列に対するグローバルとローカルの2つのスペクトルアテンションモデルは、この情報を予測の中に統合し、スペクトルフィルタリングを行い、時系列のノイズを除去する。
論文 参考訳(メタデータ) (2021-07-13T11:08:47Z) - RNN with Particle Flow for Probabilistic Spatio-temporal Forecasting [30.277213545837924]
古典的な統計モデルの多くは、時系列データに存在する複雑さと高い非線形性を扱うのに不足することが多い。
本研究では,時系列データを非線形状態空間モデルからのランダムな実現とみなす。
粒子流は, 複雑で高次元的な設定において極めて有効であることを示すため, 状態の後方分布を近似するツールとして用いられる。
論文 参考訳(メタデータ) (2021-06-10T21:49:23Z) - Learning Interpretable Deep State Space Model for Probabilistic Time
Series Forecasting [98.57851612518758]
確率的時系列予測は、その歴史に基づいて将来の分布を推定する。
本稿では,非線形エミッションモデルと遷移モデルとをネットワークによってパラメータ化した,確率的時系列予測のための深部状態空間モデルを提案する。
実験では,我々のモデルが正確かつ鋭い確率予測を生成することを示す。
論文 参考訳(メタデータ) (2021-01-31T06:49:33Z) - Spatio-Temporal Graph Scattering Transform [54.52797775999124]
グラフニューラルネットワークは、十分な高品質のトレーニングデータがないために、現実のシナリオでは実用的ではないかもしれない。
我々は時間的データを解析するための数学的に設計された新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2020-12-06T19:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。