論文の概要: A Hierarchical Signal Coordination and Control System Using a Hybrid Model-based and Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2508.20102v1
- Date: Tue, 12 Aug 2025 03:10:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-31 21:54:20.625515
- Title: A Hierarchical Signal Coordination and Control System Using a Hybrid Model-based and Reinforcement Learning Approach
- Title(参考訳): ハイブリッドモデルに基づく強化学習アプローチを用いた階層的信号コーディネート制御システム
- Authors: Xianyue Peng, Shenyang Chen, H. Michael Zhang,
- Abstract要約: モデルに基づく最適化と強化学習を統合した階層的な信号協調制御方式を提案する。
提案手法をSUMO-RLlibプラットフォーム上で開発・評価した。
- 参考スコア(独自算出の注目度): 4.473327661758546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Signal control in urban corridors faces the dual challenge of maintaining arterial traffic progression while adapting to demand variations at local intersections. We propose a hierarchical traffic signal coordination and control scheme that integrates model-based optimization with reinforcement learning. The system consists of: (i) a High-Level Coordinator (HLC) that selects coordination strategies based on observed and predicted demand; (ii) a Corridor Coordinator that derives phase constraints from the selected strategy-either Max-Flow Coordination (MFC) or Green-Wave Coordination (GWC); and (iii) Hybrid Signal Agents (HSAs) that determine signal phases via reinforcement learning with action masking to enforce feasibility. Hierarchical reinforcement learning with Proximal Policy Optimization (PPO) is used to train HSA and HLC policies. At the lower level, three HSA policies-MFC-aware, GWC-aware, and pure agent control (PAC) are trained in conjunction with their respective coordination strategies. At the higher level, the HLC is trained to dynamically switch strategies using a multi-objective reward balancing corridor-level and network-wide performance. The proposed scheme was developed and evaluated on a SUMO-RLlib platform. Case results show that hybrid MFC maximizes throughput under heavy demand; hybrid GWC consistently minimizes arterial stops and maintains progression across diverse traffic conditions but can reduce network-wide efficiency; and PAC improves network-wide travel time in moderate demand but is less effective under heavy demand. The hierarchical design enables adaptive strategy selection, achieving robust performance across all demand levels.
- Abstract(参考訳): 都市回廊における信号制御は、局所的な交差点での需要変動に適応しつつ、動脈交通の進行を維持するという2つの課題に直面している。
モデルに基づく最適化と強化学習を統合した階層的な信号協調制御方式を提案する。
制度は以下の通りである。
一 観測及び予測された需要に基づいて調整戦略を選択するハイレベルコーディネータ(HLC)
(II)選択したMFC(Max-Flow Coordination)又はGWC(Green-Wave Coordination)から位相制約を導出するCorridor Coordinator
三 行動マスキングによる強化学習により信号相を決定するハイブリッド信号エージェント(HSA)が実現可能性を高める。
PPO(Proximal Policy Optimization)を用いた階層的強化学習は、HSAおよびHLCポリシーのトレーニングに使用される。
低レベルでは、3つのHSAポリシー、MFC対応、GWC対応、純粋なエージェント制御(PAC)がそれぞれの調整戦略と共に訓練される。
高いレベルでは、HLCは経路レベルとネットワーク全体の性能のバランスをとる多目的報酬を用いて戦略を動的に切り替えるように訓練される。
提案手法をSUMO-RLlibプラットフォーム上で開発・評価した。
その結果,ハイブリッドMFCは高需要下でのスループットを最大化し,ハイブリッドGWCは動脈停止を一貫して最小化し,多様な交通条件の進行を継続するが,ネットワーク全体の効率を低下させる。
階層的な設計は、適応的な戦略選択を可能にし、すべての需要レベルにわたって堅牢なパフォーマンスを達成する。
関連論文リスト
- Cluster-Based Multi-Agent Task Scheduling for Space-Air-Ground Integrated Networks [60.085771314013044]
低高度経済は、コミュニケーションやセンシングなどの分野で発展する大きな可能性を秘めている。
本稿では,SAGINにおけるマルチUAV協調タスクスケジューリング問題に対処するため,クラスタリングに基づく多エージェントDeep Deterministic Policy Gradient (CMADDPG)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-14T06:17:33Z) - Hierarchical Multi-Agent DRL Based Dynamic Cluster Reconfiguration for UAV Mobility Management [46.80160709931929]
マルチコネクション性には、分散アクセスポイント(AP)間の動的クラスタ形成と、これらのAPからのリソース割り当ての調整が含まれる。
本研究では,エネルギー効率のよい動的クラスタ再構成を用いた無人航空機(UAV)の移動性管理手法を提案する。
論文 参考訳(メタデータ) (2024-12-05T19:20:42Z) - Design Optimization of NOMA Aided Multi-STAR-RIS for Indoor Environments: A Convex Approximation Imitated Reinforcement Learning Approach [51.63921041249406]
非直交多重アクセス(Noma)により、複数のユーザが同じ周波数帯域を共有でき、同時に再構成可能なインテリジェントサーフェス(STAR-RIS)を送信および反射することができる。
STAR-RISを屋内に展開することは、干渉緩和、電力消費、リアルタイム設定における課題を提示する。
複数のアクセスポイント(AP)、STAR-RIS、NOMAを利用した新しいネットワークアーキテクチャが屋内通信のために提案されている。
論文 参考訳(メタデータ) (2024-06-19T07:17:04Z) - Combat Urban Congestion via Collaboration: Heterogeneous GNN-based MARL for Coordinated Platooning and Traffic Signal Control [14.302023260372563]
本稿では,異種グラフ多エージェント強化学習と交通理論に基づく課題に挑戦する革新的な手法を提案する。
我々は、交通流を最適化するために、小隊と信号制御を独自の観測、行動、報酬関数セットで強化学習エージェントとして設計する。
提案手法をSUMOシミュレーションにより評価し,他の適応信号制御法と比較して,走行時間と燃料消費の両面で収束した結果が得られた。
論文 参考訳(メタデータ) (2023-10-17T02:46:04Z) - Guided Cooperation in Hierarchical Reinforcement Learning via Model-based Rollout [16.454305212398328]
モデルベースロールアウト(GCMR)を用いたガイド協調という,目標条件付き階層型強化学習(HRL)フレームワークを提案する。
GCMRは、フォワードダイナミクスを利用して層間情報同期と協調をブリッジすることを目的としている。
実験により,提案したGCMRフレームワークをHIGLのアンタングル変種(ACLG)に組み込むことにより,より安定かつ堅牢な政策改善が得られた。
論文 参考訳(メタデータ) (2023-09-24T00:13:16Z) - Learning to Sail Dynamic Networks: The MARLIN Reinforcement Learning
Framework for Congestion Control in Tactical Environments [53.08686495706487]
本稿では, 正確な並列化可能なエミュレーション環境を利用して, 戦術ネットワークの環境を再現するRLフレームワークを提案する。
衛星通信(SATCOM)とUHFワイドバンド(UHF)の無線リンク間のボトルネックリンク遷移を再現した条件下で、MARLINエージェントを訓練することにより、我々のRL学習フレームワークを評価する。
論文 参考訳(メタデータ) (2023-06-27T16:15:15Z) - Adaptive Hierarchical SpatioTemporal Network for Traffic Forecasting [70.66710698485745]
本稿では,AHSTN(Adaptive Hierarchical SpatioTemporal Network)を提案する。
AHSTNは空間階層を利用し、マルチスケール空間相関をモデル化する。
2つの実世界のデータセットの実験により、AHSTNはいくつかの強いベースラインよりも優れたパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2023-06-15T14:50:27Z) - COOR-PLT: A hierarchical control model for coordinating adaptive
platoons of connected and autonomous vehicles at signal-free intersections
based on deep reinforcement learning [0.0]
本研究では,信号のない交差点で適応型CAVプラトンを協調するための階層制御モデルであるCOOR-PLTを提案する。
都市移動シミュレータ(SUMO)のモデル検証と検証を行った。
論文 参考訳(メタデータ) (2022-07-01T02:22:31Z) - Reinforcement learning-enhanced protocols for coherent
population-transfer in three-level quantum systems [50.591267188664666]
我々は、人口移動のための最適なプロトコルを特定するために、強化学習に基づくアプローチとより伝統的な最適化手法を組み合わせて展開する。
提案手法は,効率的なプロトコルの存在を明らかにするための制御プロトコルの空間を探索することができる。
私たちが特定する新しいプロトコルは、エネルギー損失と軽視の両方に対して堅牢です。
論文 参考訳(メタデータ) (2021-09-02T14:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。