論文の概要: CDGNet: A Cross-Time Dynamic Graph-based Deep Learning Model for Traffic
Forecasting
- arxiv url: http://arxiv.org/abs/2112.02736v1
- Date: Mon, 6 Dec 2021 01:56:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 17:01:44.169635
- Title: CDGNet: A Cross-Time Dynamic Graph-based Deep Learning Model for Traffic
Forecasting
- Title(参考訳): cdgnet:トラフィック予測のためのクロスタイム動的グラフベースのディープラーニングモデル
- Authors: Yuchen Fang, Yanjun Qin, Haiyong Luo, Fang Zhao, Liang Zeng, Bo Hui,
Chenxing Wang
- Abstract要約: トラフィック予測のための新しいクロスタイム動的グラフベースディープラーニングモデルCDGNetを提案する。
本研究では,実世界の空間的相関をスパースする時間的動的グラフをスパースするゲーティング機構を設計する。
- 参考スコア(独自算出の注目度): 7.169972421976212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic forecasting is important in intelligent transportation systems of
webs and beneficial to traffic safety, yet is very challenging because of the
complex and dynamic spatio-temporal dependencies in real-world traffic systems.
Prior methods use the pre-defined or learnable static graph to extract spatial
correlations. However, the static graph-based methods fail to mine the
evolution of the traffic network. Researchers subsequently generate the dynamic
graph for each time slice to reflect the changes of spatial correlations, but
they follow the paradigm of independently modeling spatio-temporal
dependencies, ignoring the cross-time spatial influence. In this paper, we
propose a novel cross-time dynamic graph-based deep learning model, named
CDGNet, for traffic forecasting. The model is able to effectively capture the
cross-time spatial dependence between each time slice and its historical time
slices by utilizing the cross-time dynamic graph. Meanwhile, we design a gating
mechanism to sparse the cross-time dynamic graph, which conforms to the sparse
spatial correlations in the real world. Besides, we propose a novel
encoder-decoder architecture to incorporate the cross-time dynamic graph-based
GCN for multi-step traffic forecasting. Experimental results on three
real-world public traffic datasets demonstrate that CDGNet outperforms the
state-of-the-art baselines. We additionally provide a qualitative study to
analyze the effectiveness of our architecture.
- Abstract(参考訳): 交通予測は、webのインテリジェントな輸送システムにおいて重要であり、交通安全に有益であるが、現実世界の交通システムにおける複雑でダイナミックな時空間依存のため、非常に困難である。
以前の手法では、事前に定義された静的グラフや学習可能な静的グラフを使って空間相関を抽出する。
しかし、静的グラフベースの手法は、トラフィックネットワークの進化をマイニングすることができない。
その後、研究者は空間相関の変化を反映するためにスライスごとに動的グラフを生成するが、空間的影響を無視して時空間依存を独立にモデル化するパラダイムに従う。
本稿では,トラヒック予測のための新しいクロスタイム動的グラフベースディープラーニングモデルcdgnetを提案する。
このモデルは,時間的動的グラフを用いて,時間的スライスと時間的スライス間の時間的空間依存性を効果的に捉えることができる。
一方,実世界の空間的相関関係に適合するクロスタイムな動的グラフをスパースするゲーティング機構を設計する。
さらに,マルチステップトラフィック予測のためのクロスタイム動的グラフベースGCNを組み込むエンコーダデコーダアーキテクチャを提案する。
実世界の3つの公開トラフィックデータセットの実験結果は、cdgnetが最先端のベースラインを上回ることを示している。
さらに、アーキテクチャの有効性を分析するための質的研究も行います。
関連論文リスト
- Improving Traffic Flow Predictions with SGCN-LSTM: A Hybrid Model for Spatial and Temporal Dependencies [55.2480439325792]
本稿ではSGCN-LSTM(Signal-Enhanced Graph Convolutional Network Long Short Term Memory)モデルを提案する。
PEMS-BAYロードネットワークトラフィックデータセットの実験は、SGCN-LSTMモデルの有効性を示す。
論文 参考訳(メタデータ) (2024-11-01T00:37:00Z) - Dynamic Frequency Domain Graph Convolutional Network for Traffic
Forecasting [33.538633286142264]
ランダム要因による交通パターンと騒音の時間変化は、データ駆動型空間依存モデリングを妨げている。
本研究では,空間依存性を捉えるために,新しい動的周波数領域グラフ畳み込みネットワーク(DFDGCN)を提案する。
実世界の4つのデータセットの実験において,本モデルは有効であり,ベースラインを上回っている。
論文 参考訳(メタデータ) (2023-12-19T08:20:09Z) - DSTCGCN: Learning Dynamic Spatial-Temporal Cross Dependencies for
Traffic Forecasting [7.3669718660909735]
本研究では,動的空間依存と時間依存を協調的に学習する動的時空間グラフ畳み込みネットワークを提案する。
6つの実世界のデータセットの実験は、DSTCGCNが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-07-02T08:53:10Z) - STG4Traffic: A Survey and Benchmark of Spatial-Temporal Graph Neural Networks for Traffic Prediction [9.467593700532401]
本稿では,グラフ学習戦略と一般的なグラフ畳み込みアルゴリズムの体系的なレビューを行う。
次に、最近提案された空間時間グラフネットワークモデルの長所と短所を包括的に分析する。
ディープラーニングフレームワークPyTorchを用いたSTG4Trafficという研究を構築し,2種類のトラフィックデータセットに対して,標準化されたスケーラブルなベンチマークを確立する。
論文 参考訳(メタデータ) (2023-07-02T06:56:52Z) - Dynamic Graph Convolutional Network with Attention Fusion for Traffic
Flow Prediction [10.3426659705376]
本稿では,同期時空間相関をモデル化するための注意融合型動的グラフ畳み込みネットワークを提案する。
我々は、4つの実世界の交通データセットにおいて、我々の手法が18のベースライン法と比較して最先端の性能を上回ることを示す広範な実験を行った。
論文 参考訳(メタデータ) (2023-02-24T12:21:30Z) - PDFormer: Propagation Delay-Aware Dynamic Long-Range Transformer for
Traffic Flow Prediction [78.05103666987655]
空間時空間グラフニューラルネットワーク(GNN)モデルは、この問題を解決する最も有望な方法の1つである。
本稿では,交通流の正確な予測を行うために,遅延を意識した動的長距離トランスフォーマー(PDFormer)を提案する。
提案手法は,最先端の性能を達成するだけでなく,計算効率の競争力も発揮できる。
論文 参考訳(メタデータ) (2023-01-19T08:42:40Z) - Spatial-Temporal Interactive Dynamic Graph Convolution Network for
Traffic Forecasting [1.52292571922932]
本稿では,トラフィック予測のためのニューラルネットワークを用いた時空間動的グラフ畳み込みネットワーク(STIDGCN)を提案する。
そこで,STIDGCNでは,まず間隔でシーケンスを分割し,同時にトラフィックデータの時空間依存性を捉えるインタラクティブな動的グラフ畳み込み構造を提案する。
4つの実世界のトラフィックフローデータセットの実験は、STIDGCNが最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2022-05-18T01:59:30Z) - Spatio-Temporal Joint Graph Convolutional Networks for Traffic
Forecasting [75.10017445699532]
近年、時間グラフモデリング問題として交通予測の定式化に焦点が移っている。
本稿では,道路網における交通予測の精度向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T08:45:14Z) - Adaptive Graph Convolutional Recurrent Network for Traffic Forecasting [47.19400232038575]
ノード固有のパターンの学習は、事前に定義されたグラフが避けられる間、トラフィック予測に不可欠である、と我々は主張する。
本稿では,新たな機能を備えたグラフ・コンパス・ネットワーク(GCN)の拡張のための2つの適応モジュールを提案する。
実世界の2つの交通データセットに対する実験により、AGCRNは空間接続に関する事前定義されたグラフを使わずに、かなりのマージンで最先端の性能を示した。
論文 参考訳(メタデータ) (2020-07-06T15:51:10Z) - Constructing Geographic and Long-term Temporal Graph for Traffic
Forecasting [88.5550074808201]
交通予測のための地理・長期時間グラフ畳み込み型ニューラルネットワーク(GLT-GCRNN)を提案する。
本研究では,地理的・長期的時間的パターンを共有する道路間のリッチな相互作用を学習する交通予測のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-23T03:50:46Z) - Spatial-Temporal Transformer Networks for Traffic Flow Forecasting [74.76852538940746]
本稿では,長期交通予測の精度を向上させるため,時空間変圧器ネットワーク(STTN)の新たなパラダイムを提案する。
具体的には、有向空間依存を動的にモデル化することにより、空間変換器と呼ばれる新しいグラフニューラルネットワークを提案する。
提案モデルにより,長期間にわたる空間的依存関係に対する高速かつスケーラブルなトレーニングが可能になる。
論文 参考訳(メタデータ) (2020-01-09T10:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。