論文の概要: Evaluating the Robustness of Reinforcement Learning based Adaptive Traffic Signal Control
- arxiv url: http://arxiv.org/abs/2603.15283v1
- Date: Mon, 16 Mar 2026 13:47:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.39679
- Title: Evaluating the Robustness of Reinforcement Learning based Adaptive Traffic Signal Control
- Title(参考訳): 適応的信号制御による強化学習のロバスト性評価
- Authors: Dickens Kwesiga, Angshuman Guin, Khaled Abdelghany, Michael Hunter,
- Abstract要約: 本研究は, 完全8相リングバリア構成を表現可能なRL信号制御アルゴリズムを定式化した。
複数の交通量とO-D(オリジン・デスティネーション)需要パターンの異なる構造的類似度で実験を行う。
その結果,提案したRL信号制御は最適化されたASCよりも優れており,平均遅延を11~32%低減することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Reinforcement learning (RL) has attracted increasing interest for adaptive traffic signal control due to its model-free ability to learn control policies directly from interaction with the traffic environment. However, several challenges remain before RL-based signal control can be considered ready for field deployment. Many existing studies rely on simplified signal timing structures, robustness of trained models under varying traffic demand conditions remains insufficiently evaluated, and runtime efficiency continues to pose challenges when training RL algorithms in traffic microscopic simulation environments. This study formulates an RL-based signal control algorithm capable of representing a full eight-phase ring-barrier configuration consistent with field signal controllers. The algorithm is trained and evaluated under varying traffic demand conditions and benchmarked against state-of-the-practice actuated signal control (ASC). To assess robustness, experiments are conducted across multiple traffic volumes and origin-destination (O-D) demand patterns with varying levels of structural similarity. To improve training efficiency, a distributed asynchronous training architecture is implemented that enables parallel simulation across multiple computing nodes. Results from a case study intersection show that the proposed RL-based signal control significantly outperforms optimized ASC, reducing average delay by 11-32% across movements. A model trained on a single O-D pattern generalizes well to similar unseen demand patterns but degrades under substantially different demand conditions. In contrast, a model trained on diverse O-D patterns demonstrates strong robustness, consistently outperforming ASC even under highly dissimilar unseen demand scenarios.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は、交通環境との相互作用から直接制御ポリシーを学習するモデルのない能力により、適応的な交通信号制御への関心が高まっている。
しかし、RLベースの信号制御が現場配備の準備が整う前に、いくつかの課題が残っている。
既存の多くの研究は、単純化された信号タイミング構造に依存しており、様々な交通需要条件下で訓練されたモデルの堅牢性は依然として不十分であり、交通顕微鏡シミュレーション環境でRLアルゴリズムを訓練する際の実行効率は課題を呈し続けている。
本研究では、フィールド信号制御装置と整合した8相リングバリア構成を表現できるRLに基づく信号制御アルゴリズムを定式化する。
このアルゴリズムは、様々な交通需要条件下で訓練・評価され、ASC(State-of-the-practice actuated signal control)に対してベンチマークされる。
ロバスト性を評価するため,複数の交通量および構造的類似度が異なるO-D需要パターンを用いて実験を行った。
トレーニング効率を向上させるために、複数の計算ノード間の並列シミュレーションを可能にする分散非同期トレーニングアーキテクチャが実装されている。
ケーススタディの交差点から,提案したRL信号制御は最適化されたASCよりも有意に優れており,移動平均遅延が11~32%減少することが示された。
1つのO-Dパターンで訓練されたモデルは、類似の見えない需要パターンとよく似ているが、実質的に異なる需要条件下では劣化する。
対照的に、多様なO-Dパターンに基づいてトレーニングされたモデルでは、強い堅牢性を示し、非常に異なる要求シナリオの下でも、一貫してASCを上回っている。
関連論文リスト
- A Robust and Efficient Multi-Agent Reinforcement Learning Framework for Traffic Signal Control [14.135215838687207]
本稿では,ビシム交通シミュレータで検証された頑健なマルチエージェント強化学習フレームワークを提案する。
実験の結果,我々のフレームワークは標準のRLベースラインを上回る性能を示し,平均待ち時間を10%以上削減した。
論文 参考訳(メタデータ) (2026-03-12T16:02:28Z) - Robust Single-Agent Reinforcement Learning for Regional Traffic Signal Control Under Demand Fluctuations [5.784337914162491]
交通渋滞は、主に交差点の待ち行列によって引き起こされ、都市生活水準、安全性、環境品質、経済効率に大きな影響を及ぼす。
本研究では,地域適応型TSCのための新しい単エージェント強化学習フレームワークを提案する。
このフレームワークは堅牢な反ゆらぎ能力を示し、待ち時間を大幅に短縮する。
論文 参考訳(メタデータ) (2025-11-01T13:18:50Z) - Robustness of Reinforcement Learning-Based Traffic Signal Control under Incidents: A Comparative Study [4.731967623788092]
強化学習に基づく交通信号制御 (RL-TSC) が都市移動性向上のための有望なアプローチとして浮上している。
本研究では,動的インシデントシナリオ下でのRL-TSC手法のトレーニングと評価を行うオープンソースSUMOベースのシミュレーションフレームワークであるT-REXを紹介する。
論文 参考訳(メタデータ) (2025-06-16T08:15:29Z) - Reinforcement Learning for Adaptive Traffic Signal Control: Turn-Based and Time-Based Approaches to Reduce Congestion [2.733700237741334]
本稿では,交差点における信号処理の強化にReinforcement Learning(強化学習)を用いることについて検討する。
本稿では,リアルタイム待ち行列長に基づく信号の動的優先順位付けを行うターンベースエージェントと,交通条件に応じた信号位相長の調整を行うタイムベースエージェントの2つのアルゴリズムを紹介する。
シミュレーションの結果、両RLアルゴリズムは従来の信号制御システムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-08-28T12:35:56Z) - A Holistic Framework Towards Vision-based Traffic Signal Control with
Microscopic Simulation [53.39174966020085]
交通信号制御(TSC)は交通渋滞を低減し、交通の流れを円滑にし、アイドリング時間を短縮し、CO2排出量を減らすために重要である。
本研究では,道路交通の流れを視覚的観察によって調節するTSCのコンピュータビジョンアプローチについて検討する。
我々は、視覚ベースのTSCとそのベンチマークに向けて、TrafficDojoと呼ばれる総合的なトラフィックシミュレーションフレームワークを導入する。
論文 参考訳(メタデータ) (2024-03-11T16:42:29Z) - Time-to-Green predictions for fully-actuated signal control systems with
supervised learning [56.66331540599836]
本稿では,集約信号とループ検出データを用いた時系列予測フレームワークを提案する。
我々は、最先端の機械学習モデルを用いて、将来の信号位相の持続時間を予測する。
スイスのチューリッヒの信号制御システムから得られた経験的データに基づいて、機械学習モデルが従来の予測手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-08-24T07:50:43Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - A Deep Reinforcement Learning Approach for Traffic Signal Control
Optimization [14.455497228170646]
非効率な信号制御手法は、交通渋滞やエネルギー浪費などの多くの問題を引き起こす可能性がある。
本稿では,アクター・クリティカル・ポリシー・グラデーション・アルゴリズムを拡張し,マルチエージェント・ディープ・決定性ポリシー・グラデーション(MADDPG)法を提案する。
論文 参考訳(メタデータ) (2021-07-13T14:11:04Z) - Multi-intersection Traffic Optimisation: A Benchmark Dataset and a
Strong Baseline [85.9210953301628]
交通信号の制御は、都市部の交通渋滞の緩和に必要不可欠である。
問題モデリングの複雑さが高いため、現在の作業の実験的な設定はしばしば矛盾する。
エンコーダ・デコーダ構造を用いた深層強化学習に基づく新規で強力なベースラインモデルを提案する。
論文 参考訳(メタデータ) (2021-01-24T03:55:39Z) - MetaVIM: Meta Variationally Intrinsic Motivated Reinforcement Learning for Decentralized Traffic Signal Control [54.162449208797334]
交通信号制御は、交差点を横断する交通信号を調整し、地域や都市の交通効率を向上させることを目的としている。
近年,交通信号制御に深部強化学習(RL)を適用し,各信号がエージェントとみなされる有望な性能を示した。
本稿では,近隣情報を考慮した各交差点の分散化政策を潜時的に学習するメタ変動固有モチベーション(MetaVIM)RL法を提案する。
論文 参考訳(メタデータ) (2021-01-04T03:06:08Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。