論文の概要: Lyapunov Function Consistent Adaptive Network Signal Control with Back
Pressure and Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2210.02612v1
- Date: Thu, 6 Oct 2022 00:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 16:08:33.877681
- Title: Lyapunov Function Consistent Adaptive Network Signal Control with Back
Pressure and Reinforcement Learning
- Title(参考訳): バックプレッシャと強化学習を用いたリアプノフ関数整合適応型ネットワーク信号制御
- Authors: Chaolun Ma, Bruce Wang, Zihao Li, Ahmadreza Mahmoudzadeh, Yunlong
Zhang
- Abstract要約: 我々はリアプノフ制御関数を用いて、交叉車線流の重み付けによる差分待ち行列長に等しいバックプレッシャー法を導出する。
提案手法は, 旅客交通流と貨物交通との混合流下での従来のRL法とRL法との比較を行った。
- 参考スコア(独自算出の注目度): 4.671452007648402
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research studies the network traffic signal control problem. It uses the
Lyapunov control function to derive the back pressure method, which is equal to
differential queue lengths weighted by intersection lane flows. Lyapunov
control theory is a platform that unifies several current theories for
intersection signal control. We further use the theorem to derive the
flow-based and other pressure-based signal control algorithms. For example, the
Dynamic, Optimal, Real-time Algorithm for Signals (DORAS) algorithm may be
derived by defining the Lyapunov function as the sum of queue length. The study
then utilizes the back pressure as a reward in the reinforcement learning (RL)
based network signal control, whose agent is trained with double Deep Q-Network
(Double-DQN). The proposed algorithm is compared with several traditional and
RL-based methods under passenger traffic flow and mixed flow with freight
traffic, respectively. The numerical tests are conducted on a single corridor
and on a local grid network under three traffic demand scenarios of low,
medium, and heavy traffic, respectively. The numerical simulation demonstrates
that the proposed algorithm outperforms the others in terms of the average
vehicle waiting time on the network.
- Abstract(参考訳): 本研究では,ネットワーク交通信号制御問題について検討する。
リアプノフ制御関数を用いて、交叉レーンフローによって重み付けられた差分キュー長に等しいバックプレッシャー法を導出する。
リャプノフ制御理論(lyapunov control theory)は、交差信号制御の現在の理論のいくつかを統合するプラットフォームである。
さらに, この定理を用いて, 流れ系および他の圧力系信号制御アルゴリズムを導出する。
例えば、DORAS(Dynamic, Optimal, Real-time Algorithm for Signals)アルゴリズムは、リアプノフ関数をキュー長の和として定義することで導出することができる。
この研究は、後圧を強化学習(RL)に基づくネットワーク信号制御(Double-DQN)の報酬として利用し、そのエージェントは二重Qネットワーク(Double-DQN)で訓練される。
提案手法は, 旅客交通流と貨物交通の混合流における従来のRL法とRL法を比較した。
この数値実験は,低,中,高トラフィックの3つの交通需要シナリオの下で,1つの廊下とローカルグリッドネットワーク上で実施される。
数値シミュレーションにより,提案手法がネットワーク上の平均車両待ち時間において他のアルゴリズムよりも優れていることを示す。
関連論文リスト
- A Holistic Framework Towards Vision-based Traffic Signal Control with
Microscopic Simulation [53.39174966020085]
交通信号制御(TSC)は交通渋滞を低減し、交通の流れを円滑にし、アイドリング時間を短縮し、CO2排出量を減らすために重要である。
本研究では,道路交通の流れを視覚的観察によって調節するTSCのコンピュータビジョンアプローチについて検討する。
我々は、視覚ベースのTSCとそのベンチマークに向けて、TrafficDojoと呼ばれる総合的なトラフィックシミュレーションフレームワークを導入する。
論文 参考訳(メタデータ) (2024-03-11T16:42:29Z) - Improving the generalizability and robustness of large-scale traffic
signal control [3.8028221877086814]
交通信号の制御における深部強化学習(RL)アプローチの堅牢性について検討する。
欠落したデータに対して,近年の手法が脆弱なままであることを示す。
政策アンサンブルによる分散強化学習とバニラ強化学習の組み合わせを提案する。
論文 参考訳(メタデータ) (2023-06-02T21:30:44Z) - Reinforcement Learning Approaches for Traffic Signal Control under
Missing Data [5.896742981602458]
現実世界の都市では、センサーの欠如により交通状態の観察が欠如することがある。
本稿では, 適応制御を実現するために, トラフィック状態をインプットし, 適応制御とRLエージェントの訓練を可能にするために, 状態と報酬の両方をインプットする2つの方法を提案する。
論文 参考訳(メタデータ) (2023-04-21T03:26:33Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - AI-aided Traffic Control Scheme for M2M Communications in the Internet
of Vehicles [61.21359293642559]
交通のダイナミクスと異なるIoVアプリケーションの異種要求は、既存のほとんどの研究では考慮されていない。
本稿では,ハイブリッド交通制御方式とPPO法を併用して検討する。
論文 参考訳(メタデータ) (2022-03-05T10:54:05Z) - Comparative analysis of machine learning methods for active flow control [60.53767050487434]
遺伝的プログラミング(GP)と強化学習(RL)はフロー制御において人気を集めている。
この研究は2つの比較分析を行い、地球規模の最適化手法に対して最も代表的なアルゴリズムのいくつかをベンチマークする。
論文 参考訳(メタデータ) (2022-02-23T18:11:19Z) - A Deep Reinforcement Learning Approach for Traffic Signal Control
Optimization [14.455497228170646]
非効率な信号制御手法は、交通渋滞やエネルギー浪費などの多くの問題を引き起こす可能性がある。
本稿では,アクター・クリティカル・ポリシー・グラデーション・アルゴリズムを拡張し,マルチエージェント・ディープ・決定性ポリシー・グラデーション(MADDPG)法を提案する。
論文 参考訳(メタデータ) (2021-07-13T14:11:04Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Federated Learning on the Road: Autonomous Controller Design for
Connected and Autonomous Vehicles [109.71532364079711]
CAV(コネクテッド・アンド・自律車両)の自律制御設計のための新しい統合学習(FL)フレームワークの提案
CAVの移動性、無線フェーディングチャネル、および不均衡で非独立で同一に分散されたデータを考慮に入れた新しい動的フェデレーション・プロキシ(DFP)アルゴリズムが提案されている。
最適制御器を用いてCAVがどの程度の速度で収束するかを同定するために,提案アルゴリズムに対して厳密な収束解析を行う。
論文 参考訳(メタデータ) (2021-02-05T19:57:47Z) - Adaptive Traffic Control with Deep Reinforcement Learning: Towards
State-of-the-art and Beyond [1.3999481573773072]
強化学習(RL)を用いた適応型データ誘導交通計画と制御について検討する。
高速で信頼性の高い交通意思決定ツールとして,交通制御のための新しいDQNアルゴリズム(TC-DQN+)を提案する。
論文 参考訳(メタデータ) (2020-07-21T17:26:20Z) - Learning Scalable Multi-Agent Coordination by Spatial Differentiation
for Traffic Signal Control [8.380832628205372]
交通信号制御のためのディープ強化学習法に基づくマルチエージェント協調フレームワークを設計する。
具体的には、リプレイバッファ内の時間空間情報を用いて各アクションの報酬を補正する調整のための空間差分法を提案する。
論文 参考訳(メタデータ) (2020-02-27T02:16:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。