論文の概要: Area-wide traffic signal control based on a deep graph Q-Network (DGQN)
trained in an asynchronous manner
- arxiv url: http://arxiv.org/abs/2008.01950v1
- Date: Wed, 5 Aug 2020 06:13:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 18:11:06.046397
- Title: Area-wide traffic signal control based on a deep graph Q-Network (DGQN)
trained in an asynchronous manner
- Title(参考訳): 非同期に訓練されたディープグラフq-network(dgqn)に基づくエリアワイドトラヒック信号制御
- Authors: Gyeongjun Kim and Keemin Sohn
- Abstract要約: 強化学習(RL)アルゴリズムは交通信号研究に広く応用されている。
しかし,大規模交通ネットワークにおける信号機の共同制御にはいくつかの問題がある。
- 参考スコア(独自算出の注目度): 3.655021726150368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL) algorithms have been widely applied in traffic
signal studies. There are, however, several problems in jointly controlling
traffic lights for a large transportation network. First, the action space
exponentially explodes as the number of intersections to be jointly controlled
increases. Although a multi-agent RL algorithm has been used to solve the curse
of dimensionality, this neither guaranteed a global optimum, nor could it break
the ties between joint actions. The problem was circumvented by revising the
output structure of a deep Q-network (DQN) within the framework of a
single-agent RL algorithm. Second, when mapping traffic states into an action
value, it is difficult to consider spatio-temporal correlations over a large
transportation network. A deep graph Q-network (DGQN) was devised to
efficiently accommodate spatio-temporal dependencies on a large scale. Finally,
training a RL model to jointly control traffic lights in a large transportation
network requires much time to converge. An asynchronous update methodology was
devised for a DGQN to quickly reach an optimal policy. Using these three
remedies, a DGQN succeeded in jointly controlling the traffic lights in a large
transportation network in Seoul. This approach outperformed other
state-of-the-art RL algorithms as well as an actual fixed-signal operation.
- Abstract(参考訳): 強化学習(RL)アルゴリズムは交通信号研究に広く応用されている。
しかし,大規模交通ネットワークにおける信号機の共同制御にはいくつかの問題がある。
まず、相互作用空間が指数関数的に爆発し、協調的に制御される交叉の数が増える。
マルチエージェントRLアルゴリズムは次元性の呪いを解決するために使われてきたが、このアルゴリズムはグローバルな最適度を保証せず、共同動作間の関係を破ることもできない。
この問題は、シングルエージェントRLアルゴリズムのフレームワーク内で、ディープQネットワーク(DQN)の出力構造を変更することで回避された。
第2に、トラフィック状態をアクション値にマッピングする場合、大規模輸送ネットワーク上での時空間相関を考えることは困難である。
DGQN(Deep Graph Q-network)は,大規模な時空間依存性を効率的に適応するために考案された。
最後に、大規模な交通ネットワークで信号機を共同制御するためにRLモデルを訓練するには、多くの時間を要する。
DGQNが迅速に最適なポリシーに到達するために非同期更新手法が考案された。
この3つの対策により、DGQNはソウルの大交通網の信号機を共同制御することに成功している。
このアプローチは他の最先端のRLアルゴリズムや実際の固定信号演算よりも優れていた。
関連論文リスト
- Improving Traffic Flow Predictions with SGCN-LSTM: A Hybrid Model for Spatial and Temporal Dependencies [55.2480439325792]
本稿ではSGCN-LSTM(Signal-Enhanced Graph Convolutional Network Long Short Term Memory)モデルを提案する。
PEMS-BAYロードネットワークトラフィックデータセットの実験は、SGCN-LSTMモデルの有効性を示す。
論文 参考訳(メタデータ) (2024-11-01T00:37:00Z) - Towards Multi-agent Reinforcement Learning based Traffic Signal Control through Spatio-temporal Hypergraphs [19.107744041461316]
交通信号制御システム(TSCS)は、インテリジェントな交通管理に不可欠なものであり、効率的な車両の流れを育んでいる。
従来のアプローチでは、道路網を標準的なグラフに単純化することが多い。
本稿では,インテリジェントトラフィック制御を実現するための新しいTSCSフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-17T02:46:18Z) - DenseLight: Efficient Control for Large-scale Traffic Signals with Dense
Feedback [109.84667902348498]
交通信号制御(TSC)は、道路網における車両の平均走行時間を短縮することを目的としている。
従来のTSC手法は、深い強化学習を利用して制御ポリシーを探索する。
DenseLightは、不偏報酬関数を用いてポリシーの有効性をフィードバックする新しいRTLベースのTSC手法である。
論文 参考訳(メタデータ) (2023-06-13T05:58:57Z) - A Novel Multi-Agent Deep RL Approach for Traffic Signal Control [13.927155702352131]
都市ネットワークにおける複数の交通信号制御のための Friend-Deep Q-network (Friend-DQN) アプローチを提案する。
特に、複数のエージェント間の協調は状態-作用空間を減少させ、収束を加速させる。
論文 参考訳(メタデータ) (2023-06-05T08:20:37Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Large-Scale Traffic Signal Control by a Nash Deep Q-network Approach [7.23135508361981]
本稿では,完全集中型とMARLの両アプローチの弱点を緩和する,非政治的な深いQ-Network (OPNDQN) アルゴリズムを提案する。
OPNDQNの主な利点の1つはマルチエージェントマルコフ過程の非定常性を緩和することである。
平均キュー長,エピソードトレーニング報酬,平均待ち時間の観点から,既存のMARLアプローチよりもOPNDQNの方が優位であることを示す。
論文 参考訳(メタデータ) (2023-01-02T12:58:51Z) - Teal: Learning-Accelerated Optimization of WAN Traffic Engineering [68.7863363109948]
本稿では,GPUの並列処理能力を活用してTE制御を高速化する学習型TEアルゴリズムTealを提案する。
問題スケールの削減と学習のトラクタビリティ向上のために,Tealはマルチエージェント強化学習(RL)アルゴリズムを用いて,各トラフィック要求を独立に割り当てる。
他のTE加速方式と比較して、Tealは需要を6~32%増やし、197~625倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2022-10-25T04:46:30Z) - Road Network Guided Fine-Grained Urban Traffic Flow Inference [108.64631590347352]
粗いトラフィックからのきめ細かなトラフィックフローの正確な推測は、新たな重要な問題である。
本稿では,道路ネットワークの知識を活かした新しい道路対応交通流磁化器(RATFM)を提案する。
提案手法は,高品質なトラフィックフローマップを作成できる。
論文 参考訳(メタデータ) (2021-09-29T07:51:49Z) - Independent Reinforcement Learning for Weakly Cooperative Multiagent
Traffic Control Problem [22.733542222812158]
本研究では,irl(independent reinforcement learning)を用いて複雑な交通協調制御問題を解く。
そこで, 交通制御問題を部分的に観測可能な弱協調交通モデル (PO-WCTM) としてモデル化し, 交差点群全体の交通状況を最適化する。
実験の結果,CIL-DDQNはトラヒック制御問題のほぼすべての性能指標において,他の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-04-22T07:55:46Z) - Constructing Geographic and Long-term Temporal Graph for Traffic
Forecasting [88.5550074808201]
交通予測のための地理・長期時間グラフ畳み込み型ニューラルネットワーク(GLT-GCRNN)を提案する。
本研究では,地理的・長期的時間的パターンを共有する道路間のリッチな相互作用を学習する交通予測のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-23T03:50:46Z) - IG-RL: Inductive Graph Reinforcement Learning for Massive-Scale Traffic
Signal Control [4.273991039651846]
適応的な交通信号制御のスケーリングには、状態と行動空間を扱う必要がある。
本稿では,グラフ畳み込みネットワークに基づくインダクティブグラフ強化学習(IG-RL)を紹介する。
我々のモデルは、新しい道路網、交通分布、交通体制に一般化することができる。
論文 参考訳(メタデータ) (2020-03-06T17:17:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。