論文の概要: Dynamic Adaptive and Adversarial Graph Convolutional Network for Traffic
Forecasting
- arxiv url: http://arxiv.org/abs/2208.03063v1
- Date: Fri, 5 Aug 2022 09:36:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:54:32.966629
- Title: Dynamic Adaptive and Adversarial Graph Convolutional Network for Traffic
Forecasting
- Title(参考訳): 交通予測のための動的適応グラフ畳み込みネットワーク
- Authors: Juyong Jiang, Binqing Wu, Ling Chen, Sunghun Kim
- Abstract要約: 本稿では,交通予測のための動的適応グラフ畳み込みネットワーク(DAAGCN)を提案する。
DAAGCNは、グラフ畳み込みネットワーク(GCN)とGAN(Generative Adversarial Networks)を組み合わせてトラフィック予測を行う。
4つのベンチマークデータセットの実験では、DAAGCNは平均5.05%、3.80%、および5.27%で最先端であり、MAE、RMSE、MAPEでは最大9倍の収束速度を示す。
- 参考スコア(独自算出の注目度): 8.47802099704715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic forecasting is challenging due to dynamic and complicated
spatial-temporal dependencies. However, existing methods still suffer from two
critical limitations. Firstly, many approaches typically utilize static
pre-defined or adaptively learned spatial graphs to capture dynamic
spatial-temporal dependencies in the traffic system, which limits the
flexibility and only captures shared patterns for the whole time, thus leading
to sub-optimal performance. In addition, most approaches individually and
independently consider the absolute error between ground truth and predictions
at each time step, which fails to maintain the global properties and statistics
of time series as a whole and results in trend discrepancy between ground truth
and predictions. To this end, in this paper, we propose a Dynamic Adaptive and
Adversarial Graph Convolutional Network (DAAGCN), which combines Graph
Convolution Networks (GCNs) with Generative Adversarial Networks (GANs) for
traffic forecasting. Specifically, DAAGCN leverages a universal paradigm with a
gate module to integrate time-varying embeddings with node embeddings to
generate dynamic adaptive graphs for inferring spatial-temporal dependencies at
each time step. Then, two discriminators are designed to maintain the
consistency of the global properties and statistics of predicted time series
with ground truth at the sequence and graph levels. Extensive experiments on
four benchmark datasets manifest that DAAGCN outperforms the state-of-the-art
by average 5.05%, 3.80%, and 5.27%, in terms of MAE, RMSE, and MAPE, meanwhile,
speeds up convergence up to 9 times. Code is available at
https://github.com/juyongjiang/DAAGCN.
- Abstract(参考訳): 交通予測は動的で複雑な時空間依存のため困難である。
しかし、既存の方法には2つの限界がある。
第一に、多くのアプローチは、通常、静的に定義または適応的に学習された空間グラフを使用して、交通システムの動的時空間依存性をキャプチャし、柔軟性を制限し、共有パターンを常にキャプチャし、その結果、サブ最適性能をもたらす。
さらに、ほとんどのアプローチは、各段階における基底真理と予測の絶対誤差を個別に独立に考慮し、時系列のグローバルな性質と統計を全体として維持できず、その結果、基底真理と予測の傾向の相違が生じる。
本稿では,グラフ畳み込みネットワーク (gcns) とgans (generative adversarial network) を組み合わせてトラフィック予測を行う動的適応型グラフ畳み込みネットワーク (daagcn) を提案する。
特に、DAAGCNはゲートモジュールによる普遍的パラダイムを利用して、時間変化の埋め込みとノード埋め込みを統合し、各時間ステップで時空間依存を推論するための動的適応グラフを生成する。
次に、2つの判別器は、シーケンスとグラフレベルにおける基底真理を伴う予測時系列のグローバル特性と統計の一貫性を維持するように設計されている。
4つのベンチマークデータセットの大規模な実験では、DAAGCNは平均5.05%、3.80%、および5.27%で最先端であり、MAE、RMSE、MAPEは最大9倍の収束速度を示す。
コードはhttps://github.com/juyongjiang/DAAGCNで入手できる。
関連論文リスト
- COOL: A Conjoint Perspective on Spatio-Temporal Graph Neural Network for
Traffic Forecasting [10.392021668859272]
本稿では,先行情報と後続情報から異種グラフをモデル化し,高次時間関係を連続的に捉えるコンジョイント時空間グラフニューラルネットワーク(COOL)を提案する。
交通予知性を高めるために,マルチランクとマルチスケールの両方から多様な時間パターンをモデル化するコンジョイント・アテンション・デコーダを提案する。
論文 参考訳(メタデータ) (2024-03-02T04:30:09Z) - Attractor Memory for Long-Term Time Series Forecasting: A Chaos
Perspective [66.79255404792849]
本稿では,カオス理論を長期時系列予測(LTSF)タスクに導入する。
我々のモデルである textbftextitAttraos はカオス理論をLTSFに組み込み、未知の高次元カオス力学系からの観測として実世界の時系列を知覚する。
歴史的力学構造を記憶し、周波数を拡大した局所進化戦略によって予測する。
論文 参考訳(メタデータ) (2024-02-18T05:35:01Z) - Hybrid Transformer and Spatial-Temporal Self-Supervised Learning for
Long-term Traffic Prediction [1.8531577178922987]
本稿では,ハイブリッドトランスフォーマーと自己教師型学習を組み合わせたモデルを提案する。
このモデルは、トラフィックのシーケンスレベルにデータ拡張技術を適用することにより、適応的なデータ拡張を強化する。
本研究では,時間的および空間的依存をモデル化する2つの自己教師型学習タスクを設計し,モデルの精度と能力を向上させる。
論文 参考訳(メタデータ) (2024-01-29T06:17:23Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - Multivariate Time Series Forecasting with Dynamic Graph Neural ODEs [65.18780403244178]
動的グラフニューラル正規微分方程式(MTGODE)を用いた多変量時系列予測連続モデルを提案する。
具体的には、まず、時間進化するノードの特徴と未知のグラフ構造を持つ動的グラフに多変量時系列を抽象化する。
そして、欠落したグラフトポロジを補完し、空間的および時間的メッセージパッシングを統一するために、ニューラルODEを設計、解決する。
論文 参考訳(メタデータ) (2022-02-17T02:17:31Z) - SST-GNN: Simplified Spatio-temporal Traffic forecasting model using
Graph Neural Network [2.524966118517392]
我々は,SST-GNN(SST-GNN)を簡易に設計し,異なる地区を個別に集約することで依存性を効果的に符号化した。
我々は,本モデルが3つの実環境トラフィックデータセットの最先端モデルよりも大幅に優れていることを示した。
論文 参考訳(メタデータ) (2021-03-31T18:28:44Z) - Spatial-Temporal Fusion Graph Neural Networks for Traffic Flow
Forecasting [35.072979313851235]
交通流の空間的-時間的データ予測は複雑な空間的依存性と道路間の時間的パターンの動的傾向のために難しい課題である。
既存のフレームワークは通常、与えられた空間隣接グラフと、空間的および時間的相関をモデル化する洗練されたメカニズムを利用する。
本稿では,交通流予測のための空間時間融合グラフニューラルネットワーク(STFGNN)を提案する。
論文 参考訳(メタデータ) (2020-12-15T14:03:17Z) - Stochastically forced ensemble dynamic mode decomposition for
forecasting and analysis of near-periodic systems [65.44033635330604]
本稿では,観測力学を強制線形系としてモデル化した新しい負荷予測手法を提案する。
固有線型力学の利用は、解釈可能性やパーシモニーの観点から、多くの望ましい性質を提供することを示す。
電力グリッドからの負荷データを用いたテストケースの結果が提示される。
論文 参考訳(メタデータ) (2020-10-08T20:25:52Z) - Supporting Optimal Phase Space Reconstructions Using Neural Network
Architecture for Time Series Modeling [68.8204255655161]
位相空間特性を暗黙的に学習する機構を持つ人工ニューラルネットワークを提案する。
私たちのアプローチは、ほとんどの最先端戦略と同じくらいの競争力があるか、あるいは優れているかのどちらかです。
論文 参考訳(メタデータ) (2020-06-19T21:04:47Z) - Spatial-Temporal Transformer Networks for Traffic Flow Forecasting [74.76852538940746]
本稿では,長期交通予測の精度を向上させるため,時空間変圧器ネットワーク(STTN)の新たなパラダイムを提案する。
具体的には、有向空間依存を動的にモデル化することにより、空間変換器と呼ばれる新しいグラフニューラルネットワークを提案する。
提案モデルにより,長期間にわたる空間的依存関係に対する高速かつスケーラブルなトレーニングが可能になる。
論文 参考訳(メタデータ) (2020-01-09T10:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。