論文の概要: Single-agent Reinforcement Learning Model for Regional Adaptive Traffic Signal Control
- arxiv url: http://arxiv.org/abs/2511.00551v1
- Date: Sat, 01 Nov 2025 13:29:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.839517
- Title: Single-agent Reinforcement Learning Model for Regional Adaptive Traffic Signal Control
- Title(参考訳): 地域適応型信号制御のための単エージェント強化学習モデル
- Authors: Qiang Li, Ningjing Zeng, Lina Yu,
- Abstract要約: 本研究は、プローブ車両技術と互換性のある単一エージェントRLに基づく地域交通信号制御モデルを提案する。
RL設計の主要なコンポーネントは状態、アクション、報酬関数の定義である。
実験により,提案手法は協調型多区間制御により,大規模領域の混雑レベルを効果的に緩和することを示した。
- 参考スコア(独自算出の注目度): 5.170416022609791
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several studies have employed reinforcement learning (RL) to address the challenges of regional adaptive traffic signal control (ATSC) and achieved promising results. In this field, existing research predominantly adopts multi-agent frameworks. However, the adoption of multi-agent frameworks presents challenges for scalability. Instead, the Traffic signal control (TSC) problem necessitates a single-agent framework. TSC inherently relies on centralized management by a single control center, which can monitor traffic conditions across all roads in the study area and coordinate the control of all intersections. This work proposes a single-agent RL-based regional ATSC model compatible with probe vehicle technology. Key components of the RL design include state, action, and reward function definitions. To facilitate learning and manage congestion, both state and reward functions are defined based on queue length, with action designed to regulate queue dynamics. The queue length definition used in this study differs slightly from conventional definitions but is closely correlated with congestion states. More importantly, it allows for reliable estimation using link travel time data from probe vehicles. With probe vehicle data already covering most urban roads, this feature enhances the proposed method's potential for widespread deployment. The method was comprehensively evaluated using the SUMO simulation platform. Experimental results demonstrate that the proposed model effectively mitigates large-scale regional congestion levels via coordinated multi-intersection control.
- Abstract(参考訳): いくつかの研究では、地域適応信号制御(ATSC)の課題に対処するために強化学習(RL)を採用し、有望な結果を得た。
この分野では、既存の研究は主にマルチエージェントフレームワークを採用しています。
しかし、マルチエージェントフレームワークの採用によってスケーラビリティの課題が浮かび上がっている。
代わりに、交通信号制御(TSC)問題は単一エージェントフレームワークを必要とする。
TSCは本質的に、単一の管理センターによる集中管理に依存しており、研究エリア内のすべての道路の交通状況を監視し、すべての交差点の制御を調整することができる。
本研究は、プローブ車両技術と互換性のある単エージェントRLベースの地域ATSCモデルを提案する。
RL設計の主要なコンポーネントは状態、アクション、報酬関数の定義である。
混雑の学習と管理を容易にするために、状態関数と報酬関数はキューの長さに基づいて定義され、キューのダイナミクスを調節するアクションが設計されている。
本研究で用いた待ち行列長の定義は,従来の定義と若干異なるが,混雑状態と密接に関連している。
さらに重要なのは、プローブ車両のリンク走行時間データを用いた信頼性の高い推定を可能にすることだ。
調査車両データはすでに都市道路の大半をカバーしているため、提案手法の展開可能性を高めることができる。
この手法をSUMOシミュレーションプラットフォームを用いて総合的に評価した。
実験により,提案手法は協調型多区間制御により,大規模領域の混雑レベルを効果的に緩和することを示した。
関連論文リスト
- Robust Single-Agent Reinforcement Learning for Regional Traffic Signal Control Under Demand Fluctuations [5.784337914162491]
交通渋滞は、主に交差点の待ち行列によって引き起こされ、都市生活水準、安全性、環境品質、経済効率に大きな影響を及ぼす。
本研究では,地域適応型TSCのための新しい単エージェント強化学習フレームワークを提案する。
このフレームワークは堅牢な反ゆらぎ能力を示し、待ち時間を大幅に短縮する。
論文 参考訳(メタデータ) (2025-11-01T13:18:50Z) - Large-scale Regional Traffic Signal Control Based on Single-Agent Reinforcement Learning [5.1129002613887105]
本稿では,単一エージェント強化学習(RL)に基づく地域交通信号制御モデルを提案する。
このモデルは、広域交通渋滞を緩和し、総走行時間を最小化することを目的として、広範囲にわたる交通信号を調整することができる。
SUMO交通シミュレーションソフトウェアを用いて実験を行った。
論文 参考訳(メタデータ) (2025-03-12T10:51:29Z) - Towards Intelligent Transportation with Pedestrians and Vehicles In-the-Loop: A Surveillance Video-Assisted Federated Digital Twin Framework [62.47416496137193]
本稿では,歩行者や車いすによるITSを支援するための監視ビデオ支援型デジタルツイン(SV-FDT)フレームワークを提案する。
i)複数のソースからトラフィック監視ビデオを収集するエンドレイヤ、(ii)セマンティックセグメンテーションに基づく視覚理解、ツインエージェントベースのインタラクションモデリング、およびローカルデジタルツインシステム(LDTS)をローカルで作成するエッジレイヤ、(iii)異なるリージョンにわたるLDTSを統合してグローバルDTモデルをリアルタイムで構築するクラウドレイヤの3層で構成されている。
論文 参考訳(メタデータ) (2025-03-06T07:36:06Z) - Toward Dependency Dynamics in Multi-Agent Reinforcement Learning for Traffic Signal Control [8.312659530314937]
適応的な信号制御のためのデータ駆動型アプローチとして強化学習(RL)が出現する。
本稿では,DQN-DPUS(Deep Q-Network)のための動的強化更新戦略を提案する。
提案手法は最適探索を犠牲にすることなく収束速度を向上できることを示す。
論文 参考訳(メタデータ) (2025-02-23T15:29:12Z) - Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [87.7482313774741]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - UniTSA: A Universal Reinforcement Learning Framework for V2X Traffic
Signal Control [4.505547437110232]
交通渋滞は、効果的な交通信号制御(TSC)システムの開発を要求する都市部において持続的な問題である。
そこで本研究では,V2X(Vanger-to-Everything)環境での汎用的なRTLベースのTSCフレームワークを提案する。
様々な交差構造を扱う能力の向上を図ったRLベースのフレームワークを実現するため,信号光制御システムのための新しいトラフィック状態拡張手法が開発された。
論文 参考訳(メタデータ) (2023-12-08T15:18:40Z) - DenseLight: Efficient Control for Large-scale Traffic Signals with Dense
Feedback [109.84667902348498]
交通信号制御(TSC)は、道路網における車両の平均走行時間を短縮することを目的としている。
従来のTSC手法は、深い強化学習を利用して制御ポリシーを探索する。
DenseLightは、不偏報酬関数を用いてポリシーの有効性をフィードバックする新しいRTLベースのTSC手法である。
論文 参考訳(メタデータ) (2023-06-13T05:58:57Z) - A Novel Multi-Agent Deep RL Approach for Traffic Signal Control [13.927155702352131]
都市ネットワークにおける複数の交通信号制御のための Friend-Deep Q-network (Friend-DQN) アプローチを提案する。
特に、複数のエージェント間の協調は状態-作用空間を減少させ、収束を加速させる。
論文 参考訳(メタデータ) (2023-06-05T08:20:37Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - MetaVIM: Meta Variationally Intrinsic Motivated Reinforcement Learning for Decentralized Traffic Signal Control [54.162449208797334]
交通信号制御は、交差点を横断する交通信号を調整し、地域や都市の交通効率を向上させることを目的としている。
近年,交通信号制御に深部強化学習(RL)を適用し,各信号がエージェントとみなされる有望な性能を示した。
本稿では,近隣情報を考慮した各交差点の分散化政策を潜時的に学習するメタ変動固有モチベーション(MetaVIM)RL法を提案する。
論文 参考訳(メタデータ) (2021-01-04T03:06:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。