論文の概要: Lyapunov Function Consistent Adaptive Network Signal Control with Back
Pressure and Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2210.02612v1
- Date: Thu, 6 Oct 2022 00:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 16:08:33.877681
- Title: Lyapunov Function Consistent Adaptive Network Signal Control with Back
Pressure and Reinforcement Learning
- Title(参考訳): バックプレッシャと強化学習を用いたリアプノフ関数整合適応型ネットワーク信号制御
- Authors: Chaolun Ma, Bruce Wang, Zihao Li, Ahmadreza Mahmoudzadeh, Yunlong
Zhang
- Abstract要約: 我々はリアプノフ制御関数を用いて、交叉車線流の重み付けによる差分待ち行列長に等しいバックプレッシャー法を導出する。
提案手法は, 旅客交通流と貨物交通との混合流下での従来のRL法とRL法との比較を行った。
- 参考スコア(独自算出の注目度): 4.671452007648402
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research studies the network traffic signal control problem. It uses the
Lyapunov control function to derive the back pressure method, which is equal to
differential queue lengths weighted by intersection lane flows. Lyapunov
control theory is a platform that unifies several current theories for
intersection signal control. We further use the theorem to derive the
flow-based and other pressure-based signal control algorithms. For example, the
Dynamic, Optimal, Real-time Algorithm for Signals (DORAS) algorithm may be
derived by defining the Lyapunov function as the sum of queue length. The study
then utilizes the back pressure as a reward in the reinforcement learning (RL)
based network signal control, whose agent is trained with double Deep Q-Network
(Double-DQN). The proposed algorithm is compared with several traditional and
RL-based methods under passenger traffic flow and mixed flow with freight
traffic, respectively. The numerical tests are conducted on a single corridor
and on a local grid network under three traffic demand scenarios of low,
medium, and heavy traffic, respectively. The numerical simulation demonstrates
that the proposed algorithm outperforms the others in terms of the average
vehicle waiting time on the network.
- Abstract(参考訳): 本研究では,ネットワーク交通信号制御問題について検討する。
リアプノフ制御関数を用いて、交叉レーンフローによって重み付けられた差分キュー長に等しいバックプレッシャー法を導出する。
リャプノフ制御理論(lyapunov control theory)は、交差信号制御の現在の理論のいくつかを統合するプラットフォームである。
さらに, この定理を用いて, 流れ系および他の圧力系信号制御アルゴリズムを導出する。
例えば、DORAS(Dynamic, Optimal, Real-time Algorithm for Signals)アルゴリズムは、リアプノフ関数をキュー長の和として定義することで導出することができる。
この研究は、後圧を強化学習(RL)に基づくネットワーク信号制御(Double-DQN)の報酬として利用し、そのエージェントは二重Qネットワーク(Double-DQN)で訓練される。
提案手法は, 旅客交通流と貨物交通の混合流における従来のRL法とRL法を比較した。
この数値実験は,低,中,高トラフィックの3つの交通需要シナリオの下で,1つの廊下とローカルグリッドネットワーク上で実施される。
数値シミュレーションにより,提案手法がネットワーク上の平均車両待ち時間において他のアルゴリズムよりも優れていることを示す。
関連論文リスト
- Reinforcement Learning for Adaptive Traffic Signal Control: Turn-Based and Time-Based Approaches to Reduce Congestion [2.733700237741334]
本稿では,交差点における信号処理の強化にReinforcement Learning(強化学習)を用いることについて検討する。
本稿では,リアルタイム待ち行列長に基づく信号の動的優先順位付けを行うターンベースエージェントと,交通条件に応じた信号位相長の調整を行うタイムベースエージェントの2つのアルゴリズムを紹介する。
シミュレーションの結果、両RLアルゴリズムは従来の信号制御システムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-08-28T12:35:56Z) - A Holistic Framework Towards Vision-based Traffic Signal Control with
Microscopic Simulation [53.39174966020085]
交通信号制御(TSC)は交通渋滞を低減し、交通の流れを円滑にし、アイドリング時間を短縮し、CO2排出量を減らすために重要である。
本研究では,道路交通の流れを視覚的観察によって調節するTSCのコンピュータビジョンアプローチについて検討する。
我々は、視覚ベースのTSCとそのベンチマークに向けて、TrafficDojoと呼ばれる総合的なトラフィックシミュレーションフレームワークを導入する。
論文 参考訳(メタデータ) (2024-03-11T16:42:29Z) - Improving the generalizability and robustness of large-scale traffic
signal control [3.8028221877086814]
交通信号の制御における深部強化学習(RL)アプローチの堅牢性について検討する。
欠落したデータに対して,近年の手法が脆弱なままであることを示す。
政策アンサンブルによる分散強化学習とバニラ強化学習の組み合わせを提案する。
論文 参考訳(メタデータ) (2023-06-02T21:30:44Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - Comparative analysis of machine learning methods for active flow control [60.53767050487434]
遺伝的プログラミング(GP)と強化学習(RL)はフロー制御において人気を集めている。
この研究は2つの比較分析を行い、地球規模の最適化手法に対して最も代表的なアルゴリズムのいくつかをベンチマークする。
論文 参考訳(メタデータ) (2022-02-23T18:11:19Z) - A Deep Reinforcement Learning Approach for Traffic Signal Control
Optimization [14.455497228170646]
非効率な信号制御手法は、交通渋滞やエネルギー浪費などの多くの問題を引き起こす可能性がある。
本稿では,アクター・クリティカル・ポリシー・グラデーション・アルゴリズムを拡張し,マルチエージェント・ディープ・決定性ポリシー・グラデーション(MADDPG)法を提案する。
論文 参考訳(メタデータ) (2021-07-13T14:11:04Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Federated Learning on the Road: Autonomous Controller Design for
Connected and Autonomous Vehicles [109.71532364079711]
CAV(コネクテッド・アンド・自律車両)の自律制御設計のための新しい統合学習(FL)フレームワークの提案
CAVの移動性、無線フェーディングチャネル、および不均衡で非独立で同一に分散されたデータを考慮に入れた新しい動的フェデレーション・プロキシ(DFP)アルゴリズムが提案されている。
最適制御器を用いてCAVがどの程度の速度で収束するかを同定するために,提案アルゴリズムに対して厳密な収束解析を行う。
論文 参考訳(メタデータ) (2021-02-05T19:57:47Z) - MetaVIM: Meta Variationally Intrinsic Motivated Reinforcement Learning for Decentralized Traffic Signal Control [54.162449208797334]
交通信号制御は、交差点を横断する交通信号を調整し、地域や都市の交通効率を向上させることを目的としている。
近年,交通信号制御に深部強化学習(RL)を適用し,各信号がエージェントとみなされる有望な性能を示した。
本稿では,近隣情報を考慮した各交差点の分散化政策を潜時的に学習するメタ変動固有モチベーション(MetaVIM)RL法を提案する。
論文 参考訳(メタデータ) (2021-01-04T03:06:08Z) - Adaptive Traffic Control with Deep Reinforcement Learning: Towards
State-of-the-art and Beyond [1.3999481573773072]
強化学習(RL)を用いた適応型データ誘導交通計画と制御について検討する。
高速で信頼性の高い交通意思決定ツールとして,交通制御のための新しいDQNアルゴリズム(TC-DQN+)を提案する。
論文 参考訳(メタデータ) (2020-07-21T17:26:20Z) - Learning Scalable Multi-Agent Coordination by Spatial Differentiation
for Traffic Signal Control [8.380832628205372]
交通信号制御のためのディープ強化学習法に基づくマルチエージェント協調フレームワークを設計する。
具体的には、リプレイバッファ内の時間空間情報を用いて各アクションの報酬を補正する調整のための空間差分法を提案する。
論文 参考訳(メタデータ) (2020-02-27T02:16:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。