論文の概要: COOR-PLT: A hierarchical control model for coordinating adaptive
platoons of connected and autonomous vehicles at signal-free intersections
based on deep reinforcement learning
- arxiv url: http://arxiv.org/abs/2207.07195v1
- Date: Fri, 1 Jul 2022 02:22:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-24 11:50:38.856153
- Title: COOR-PLT: A hierarchical control model for coordinating adaptive
platoons of connected and autonomous vehicles at signal-free intersections
based on deep reinforcement learning
- Title(参考訳): coor-plt:深層強化学習に基づく無信号交差点における自律走行車両の適応的プラトン調整のための階層的制御モデル
- Authors: Duowei Li (1 and 2), Jianping Wu (1), Feng Zhu (2), Tianyi Chen (2),
Yiik Diew Wong (2) ((1) Department of Civil Engineering, Tsinghua University,
China, (2) School of Civil and Environmental Engineering, Nanyang
Technological University, Singapore)
- Abstract要約: 本研究では,信号のない交差点で適応型CAVプラトンを協調するための階層制御モデルであるCOOR-PLTを提案する。
都市移動シミュレータ(SUMO)のモデル検証と検証を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Platooning and coordination are two implementation strategies that are
frequently proposed for traffic control of connected and autonomous vehicles
(CAVs) at signal-free intersections instead of using conventional traffic
signals. However, few studies have attempted to integrate both strategies to
better facilitate the CAV control at signal-free intersections. To this end,
this study proposes a hierarchical control model, named COOR-PLT, to coordinate
adaptive CAV platoons at a signal-free intersection based on deep reinforcement
learning (DRL). COOR-PLT has a two-layer framework. The first layer uses a
centralized control strategy to form adaptive platoons. The optimal size of
each platoon is determined by considering multiple objectives (i.e.,
efficiency, fairness and energy saving). The second layer employs a
decentralized control strategy to coordinate multiple platoons passing through
the intersection. Each platoon is labeled with coordinated status or
independent status, upon which its passing priority is determined. As an
efficient DRL algorithm, Deep Q-network (DQN) is adopted to determine platoon
sizes and passing priorities respectively in the two layers. The model is
validated and examined on the simulator Simulation of Urban Mobility (SUMO).
The simulation results demonstrate that the model is able to: (1) achieve
satisfactory convergence performances; (2) adaptively determine platoon size in
response to varying traffic conditions; and (3) completely avoid deadlocks at
the intersection. By comparison with other control methods, the model manifests
its superiority of adopting adaptive platooning and DRL-based coordination
strategies. Also, the model outperforms several state-of-the-art methods on
reducing travel time and fuel consumption in different traffic conditions.
- Abstract(参考訳): プラトゥーイングとコーディネーションは、従来の交通信号の代わりに信号のない交差点において、コネクテッド・自動運転車(CAV)の交通制御のために頻繁に提案される2つの実装戦略である。
しかし、信号のない交差点でのCAV制御をより促進するために両方の戦略を統合する試みは少ない。
そこで本研究では,深層強化学習(drl)に基づく無信号交差点における適応型キャビタプラトンを協調する階層制御モデルcoor-pltを提案する。
COOR-PLTには2層フレームワークがある。
第1層は集中制御戦略を用いて適応プラトンを形成する。
各小隊の最適サイズは、複数の目的(効率性、公平性、省エネルギー)を考慮して決定される。
第2層は、複数のプラトンが交差する方向を調整するために分散制御戦略を用いる。
各小隊は、協調状態または独立状態とラベル付けされ、その優先権が決定される。
効率的なDRLアルゴリズムとして、DQN (Deep Q-network) が採用され、2つの層でそれぞれ小隊の大きさと通過優先度を決定する。
都市移動シミュレーション (SUMO) において, モデルの有効性を確認し, 検討した。
シミュレーションの結果,(1)コンバージェンス性能が良好であること,(2)交通条件の変化に応じて小隊のサイズを適応的に決定できること,(3)交差点でのデッドロックを完全に回避できることが判明した。
他の制御手法と比較して、このモデルは適応型小隊とDRLに基づく調整戦略を採用することの優位性を示す。
また, 異なる交通条件下での走行時間と燃料消費を削減し, 最先端の手法よりも優れていた。
関連論文リスト
- Combat Urban Congestion via Collaboration: Heterogeneous GNN-based MARL
for Coordinated Platooning and Traffic Signal Control [16.762073265205565]
本稿では、異種グラフ多エージェント強化学習と交通理論に基づいて、これらの課題に対処するための革新的な解決策を提案する。
提案手法は,1)小隊と信号制御を個別の強化学習エージェントとして設計し,各エージェント間のシームレスな情報交換を容易にするため,多エージェント強化学習にグラフニューラルネットワークを組み込んだ協調設計を行う。
論文 参考訳(メタデータ) (2023-10-17T02:46:04Z) - Convergence of Communications, Control, and Machine Learning for Secure
and Autonomous Vehicle Navigation [78.60496411542549]
接続された自動運転車(CAV)は、交通事故におけるヒューマンエラーを低減し、道路効率を向上し、様々なタスクを実行する。これらのメリットを享受するためには、CAVが目標とする目的地へ自律的にナビゲートする必要がある。
本稿では,通信理論,制御理論,機械学習の収束を利用して,効果的なCAVナビゲーションを実現する手法を提案する。
論文 参考訳(メタデータ) (2023-07-05T21:38:36Z) - Learning to Sail Dynamic Networks: The MARLIN Reinforcement Learning
Framework for Congestion Control in Tactical Environments [53.08686495706487]
本稿では, 正確な並列化可能なエミュレーション環境を利用して, 戦術ネットワークの環境を再現するRLフレームワークを提案する。
衛星通信(SATCOM)とUHFワイドバンド(UHF)の無線リンク間のボトルネックリンク遷移を再現した条件下で、MARLINエージェントを訓練することにより、我々のRL学習フレームワークを評価する。
論文 参考訳(メタデータ) (2023-06-27T16:15:15Z) - Adaptive Hierarchical SpatioTemporal Network for Traffic Forecasting [70.66710698485745]
本稿では,AHSTN(Adaptive Hierarchical SpatioTemporal Network)を提案する。
AHSTNは空間階層を利用し、マルチスケール空間相関をモデル化する。
2つの実世界のデータセットの実験により、AHSTNはいくつかの強いベースラインよりも優れたパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2023-06-15T14:50:27Z) - Lyapunov Function Consistent Adaptive Network Signal Control with Back
Pressure and Reinforcement Learning [9.797994846439527]
本研究では、それぞれ特定のリャプノフ関数を定義するリアプノフ制御理論を用いた統一的なフレームワークを提案する。
Lyapunov理論の知見に基づいて、この研究は強化学習(Reinforcement Learning, RL)に基づくネットワーク信号制御のための報酬関数を設計する。
提案アルゴリズムは, 純旅客車流および貨物を含む異種交通流下での従来のRL法およびRL法と比較した。
論文 参考訳(メタデータ) (2022-10-06T00:22:02Z) - Development of a CAV-based Intersection Control System and Corridor
Level Impact Assessment [0.696125353550498]
本稿では,画素予約アルゴリズムとDeep Reinforcement Learning (DRL)決定論理を組み合わせたCAVの信号自由交叉制御システムを提案する。
提案モデルでは,他のCAV制御システムと比較して,中等度,高,極端の容積状態において50%,29%,および23%の遅延を減少させる。
論文 参考訳(メタデータ) (2022-08-21T21:56:20Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - Modeling Adaptive Platoon and Reservation Based Autonomous Intersection
Control: A Deep Reinforcement Learning Approach [0.0]
本研究では, 深部強化学習(DRL)技術を利用した適応型小隊型自律交叉制御モデルを提案する。
交通マイクロシミュレータ上での試験では, 走行効率, 燃料保存性能が, 最先端の手法と比較して優れていた。
論文 参考訳(メタデータ) (2022-06-24T08:50:36Z) - Deep Reinforcement Learning Aided Platoon Control Relying on V2X
Information [78.18186960475974]
車両間通信(V2X)が小隊制御性能に及ぼす影響について検討した。
我々の目的は、最も適切な状態空間を構築するために、車両間で共有されるべき特定の情報の集合を見つけることである。
状態空間に含めると、より高い状態次元を持つ負の効果を相殺する確率が高いため、より有益な情報が伝達においてより高い優先度で与えられる。
論文 参考訳(メタデータ) (2022-03-28T02:11:54Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Learning Scalable Multi-Agent Coordination by Spatial Differentiation
for Traffic Signal Control [8.380832628205372]
交通信号制御のためのディープ強化学習法に基づくマルチエージェント協調フレームワークを設計する。
具体的には、リプレイバッファ内の時間空間情報を用いて各アクションの報酬を補正する調整のための空間差分法を提案する。
論文 参考訳(メタデータ) (2020-02-27T02:16:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。