論文の概要: Parallel Multi-Graph Convolution Network For Metro Passenger Volume
Prediction
- arxiv url: http://arxiv.org/abs/2109.00924v1
- Date: Sun, 29 Aug 2021 13:07:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-03 13:49:14.935046
- Title: Parallel Multi-Graph Convolution Network For Metro Passenger Volume
Prediction
- Title(参考訳): メトロ客数予測のための並列多グラフ畳み込みネットワーク
- Authors: Fuchen Gao, Zhanquan Wang, Zhenguang Liu
- Abstract要約: 本稿では,並列多グラフ畳み込みと双方向一方向Gated Recurrent Unit(PB-GRU)を重畳した深層学習モデルを提案する。
地下鉄の乗客の流れを実世界の2つのデータセットで分析した結果,モデルの有効性が示された。
- 参考スコア(独自算出の注目度): 8.536743588315696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate prediction of metro passenger volume (number of passengers) is
valuable to realize real-time metro system management, which is a pivotal yet
challenging task in intelligent transportation. Due to the complex spatial
correlation and temporal variation of urban subway ridership behavior, deep
learning has been widely used to capture non-linear spatial-temporal
dependencies. Unfortunately, the current deep learning methods only adopt graph
convolutional network as a component to model spatial relationship, without
making full use of the different spatial correlation patterns between stations.
In order to further improve the accuracy of metro passenger volume prediction,
a deep learning model composed of Parallel multi-graph convolution and stacked
Bidirectional unidirectional Gated Recurrent Unit (PB-GRU) was proposed in this
paper. The parallel multi-graph convolution captures the origin-destination
(OD) distribution and similar flow pattern between the metro stations, while
bidirectional gated recurrent unit considers the passenger volume sequence in
forward and backward directions and learns complex temporal features. Extensive
experiments on two real-world datasets of subway passenger flow show the
efficacy of the model. Surprisingly, compared with the existing methods, PB-GRU
achieves much lower prediction error.
- Abstract(参考訳): 地下鉄の乗客数(乗客数)の正確な予測は、インテリジェント交通において重要な課題でありながら、リアルタイムの地下鉄システム管理を実現するのに有用である。
都市地下鉄の乗車行動の複雑な空間的相関と時間的変動により、ディープラーニングは非線形空間-時間的依存関係を捉えるために広く使われている。
残念ながら、現在のディープラーニング手法では、局間の異なる空間相関パターンをフル活用することなく、グラフ畳み込みネットワークを空間関係をモデル化するためのコンポーネントとしてのみ採用している。
本研究では,metro passenger volume predictionの精度をさらに高めるために,並列マルチグラフ畳み込みと重ね合わせ双方向ゲートリカレントユニット(pb-gru)を組み合わせたディープラーニングモデルを提案する。
並列マルチグラフ畳み込みは、駅間のオリジン・デスティネーション(od)分布と類似のフローパターンを捉え、双方向ゲート再帰ユニットは、乗客の容積列を前後に考慮し、複雑な時間的特徴を学習する。
地下鉄の乗客フローの2つの実世界のデータセットに対する大規模な実験は、モデルの有効性を示している。
PB-GRUは既存の手法に比べて予測誤差がはるかに低い。
関連論文リスト
- Traffic Prediction considering Multiple Levels of Spatial-temporal Information: A Multi-scale Graph Wavelet-based Approach [3.343804744266258]
本研究では,複雑な交通ネットワークにおける交通状態を予測するためのグラフウェーブレット時間畳み込みネットワーク(MSGWTCN)を提案する。
シアトルのハイウェイネットワークやニューヨーク市マンハッタンの高密度道路ネットワークなど、モデルのパフォーマンスを調べるために、2つの実世界のデータセットが使用されている。
論文 参考訳(メタデータ) (2024-06-18T20:05:47Z) - Multi-Scale Spatial-Temporal Recurrent Networks for Traffic Flow
Prediction [13.426775574655135]
交通流予測のためのマルチスケール時空間リカレントネットワーク(MSSTRN)を提案する。
本研究では,適応的な位置グラフの畳み込みを自己認識機構に統合し,空間的時間的依存関係の同時捕捉を実現する空間的時間的同期的注意機構を提案する。
本モデルは,全20基準法と比較して,非自明なマージンで最高の予測精度を実現する。
論文 参考訳(メタデータ) (2023-10-12T08:52:36Z) - D2-TPred: Discontinuous Dependency for Trajectory Prediction under
Traffic Lights [68.76631399516823]
本稿では,空間的動的相互作用グラフ(SDG)と行動依存グラフ(BDG)を用いて,交通信号に対する軌道予測手法D2-TPredを提案する。
実験の結果,VTP-TLではADEとFDEでそれぞれ20.45%,20.78%以上を達成できた。
論文 参考訳(メタデータ) (2022-07-21T10:19:07Z) - Continuous-Time and Multi-Level Graph Representation Learning for
Origin-Destination Demand Prediction [52.0977259978343]
本稿では,原位置需要予測(CMOD)のための連続時間および多段階動的グラフ表現学習法を提案する。
状態ベクトルは、過去のトランザクション情報を保持し、最近発生したトランザクションに従って継続的に更新される。
北京地下鉄とニューヨークタクシーの2つの実世界のデータセットを用いて実験を行い、そのモデルが最先端のアプローチに対して優れていることを実証した。
論文 参考訳(メタデータ) (2022-06-30T03:37:50Z) - Multi-View TRGRU: Transformer based Spatiotemporal Model for Short-Term
Metro Origin-Destination Matrix Prediction [12.626657411944949]
ODメトロマトリクス予測に対処するハイブリド・フレームワークであるMulti-view TRGRUを提案する。
特に、最近のトレンド、日々のトレンド、毎週のトレンドという3つのフロー変化パターンをモデル化するために、3つのモジュールを使用する。
各モジュールにおいて、各ステーションへの埋め込みに基づくマルチビュー表現を構築し、トランスをベースとした再ゲート電流構造に供給する。
論文 参考訳(メタデータ) (2021-08-09T09:32:42Z) - Multi-Graph Convolutional-Recurrent Neural Network (MGC-RNN) for
Short-Term Forecasting of Transit Passenger Flow [7.9132565523269625]
交通管理や群衆規制には, 短期的な旅客輸送の予測が不可欠である。
都市交通システムにおける乗客の流れを予測するために,革新的な深層学習手法であるMulti-Graph Convolutional-Recurrent Neural Network (MGC-NN)を提案する。
論文 参考訳(メタデータ) (2021-07-28T08:41:12Z) - Online Metro Origin-Destination Prediction via Heterogeneous Information
Aggregation [99.54200992904721]
我々は、ODとDOの進化パターンを共同で学習するために、HIAM(Heterogeneous Information Aggregation Machine)と呼ばれるニューラルネットワークモジュールを提案する。
ODモデリングブランチは、未完成な順序の潜在的な目的地を明示的に推定し、不完全OD行列の情報を補完する。
DOモデリングブランチは、DO行列を入力として、DOライダーシップの時空間分布をキャプチャする。
提案したHIAMに基づいて,将来のODおよびDOライダーを同時に予測する統合Seq2Seqネットワークを開発した。
論文 参考訳(メタデータ) (2021-07-02T10:11:51Z) - SGCN:Sparse Graph Convolution Network for Pedestrian Trajectory
Prediction [64.16212996247943]
歩行者軌道予測のためのスパースグラフ畳み込みネットワーク(SGCN)を提案する。
具体的には、SGCNはスパース指向の相互作用をスパース指向の空間グラフと明確にモデル化し、適応的な相互作用歩行者を捉える。
可視化は,歩行者の適応的相互作用とその運動特性を捉えることができることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:17:42Z) - Coupled Layer-wise Graph Convolution for Transportation Demand
Prediction [43.23120462553671]
グラフ畳み込みネットワーク(gcn)は輸送需要予測に広く適用されている。
本稿では,輸送需要予測のための新しいグラフ畳み込みネットワークを提案する。
実世界の2つのデータセット、NYC Citi BikeとNYC Taxiで実験が行われた。
論文 参考訳(メタデータ) (2020-12-15T04:10:09Z) - Physical-Virtual Collaboration Modeling for Intra-and Inter-Station
Metro Ridership Prediction [116.66657468425645]
本研究では,複雑なライダーシップパターンをテーラー設計グラフから効果的に学習できる物理仮想協調グラフネットワーク(PVCGN)を提案する。
特に、物理グラフは、研究されたメトロシステムの現実的なトポロジーに基づいて直接構築される。
類似度グラフと相関グラフを仮想トポロジで構築し, 駅間交通流の類似度と相関関係を導出する。
論文 参考訳(メタデータ) (2020-01-14T16:47:54Z) - Spatial-Temporal Transformer Networks for Traffic Flow Forecasting [74.76852538940746]
本稿では,長期交通予測の精度を向上させるため,時空間変圧器ネットワーク(STTN)の新たなパラダイムを提案する。
具体的には、有向空間依存を動的にモデル化することにより、空間変換器と呼ばれる新しいグラフニューラルネットワークを提案する。
提案モデルにより,長期間にわたる空間的依存関係に対する高速かつスケーラブルなトレーニングが可能になる。
論文 参考訳(メタデータ) (2020-01-09T10:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。