論文の概要: Human-Centric Traffic Signal Control for Equity: A Multi-Agent Action Branching Deep Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2602.02959v1
- Date: Tue, 03 Feb 2026 00:56:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.16196
- Title: Human-Centric Traffic Signal Control for Equity: A Multi-Agent Action Branching Deep Reinforcement Learning Approach
- Title(参考訳): 等価性のための人間中心交通信号制御:深層強化学習アプローチによる多エージェント行動分岐
- Authors: Xiaocai Zhang, Neema Nassir, Lok Sang Chan, Milad Haghani,
- Abstract要約: 人中心型マルチエージェントアクションブラッチングダブルディープQネットワーク(DQN)フレームワークであるMA2B-DDQNを提案する。
我々の重要な貢献は、廊下制御を局所的な区間ごとの動作に分解するアクション分岐離散制御の定式化である。
また、歩行者、乗務員、交通機関の乗客を考慮し、廊下で遅れた人の数を罰する人間中心の報酬も設計する。
- 参考スコア(独自算出の注目度): 5.2437780355984165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Coordinating traffic signals along multimodal corridors is challenging because many multi-agent deep reinforcement learning (DRL) approaches remain vehicle-centric and struggle with high-dimensional discrete action spaces. We propose MA2B-DDQN, a human-centric multi-agent action-branching double Deep Q-Network (DQN) framework that explicitly optimizes traveler-level equity. Our key contribution is an action-branching discrete control formulation that decomposes corridor control into (i) local, per-intersection actions that allocate green time between the next two phases and (ii) a single global action that selects the total duration of those phases. This decomposition enables scalable coordination under discrete control while reducing the effective complexity of joint decision-making. We also design a human-centric reward that penalizes the number of delayed individuals in the corridor, accounting for pedestrians, vehicle occupants, and transit passengers. Extensive evaluations across seven realistic traffic scenarios in Melbourne, Australia, demonstrate that our approach significantly reduces the number of impacted travelers, outperforming existing DRL and baseline methods. Experiments confirm the robustness of our model, showing minimal variance across diverse settings. This framework not only advocates for a fairer traffic signal system but also provides a scalable solution adaptable to varied urban traffic conditions.
- Abstract(参考訳): 多くのマルチエージェント深部強化学習(DRL)アプローチが車中心であり、高次元の離散的な行動空間と競合するため、マルチモーダル回廊に沿った交通信号のコーディネートは困難である。
旅行者レベルのエクイティを明示的に最適化するDQN(Duman-centric multi-agent action-branching double Q-Network)フレームワークであるMA2B-DDQNを提案する。
私たちの重要な貢献は、廊下制御を分解するアクション分岐離散制御の定式化です。
一 次の二期の間にグリーンタイムを割り当てる局所的、区間ごとの行動
(ii)これらのフェーズの総持続時間を選択する単一のグローバルアクション。
この分解により、離散制御下でのスケーラブルな協調が可能となり、共同決定の複雑さを低減できる。
また、歩行者、乗務員、交通機関の乗客を考慮し、廊下で遅れた人の数を罰する人間中心の報酬も設計する。
オーストラリアのメルボルンで実施されている7つの現実的な交通シナリオに対する大規模な評価は、我々のアプローチが既存のDRLおよびベースライン法よりもはるかに影響のある旅行者の数を減少させることを示した。
実験により、モデルの堅牢性を確認し、様々な設定で最小限のばらつきを示す。
このフレームワークは、より公平な交通信号システムを提案するだけでなく、様々な都市交通条件に適応可能なスケーラブルなソリューションも提供する。
関連論文リスト
- Single-agent Reinforcement Learning Model for Regional Adaptive Traffic Signal Control [5.170416022609791]
本研究は、プローブ車両技術と互換性のある単一エージェントRLに基づく地域交通信号制御モデルを提案する。
RL設計の主要なコンポーネントは状態、アクション、報酬関数の定義である。
実験により,提案手法は協調型多区間制御により,大規模領域の混雑レベルを効果的に緩和することを示した。
論文 参考訳(メタデータ) (2025-11-01T13:29:13Z) - Reinforcement learning with combinatorial actions for coupled restless bandits [62.89013331120493]
提案するSEQUOIAは,動作空間に対する長期報酬を直接最適化するRLアルゴリズムである。
我々は,複数介入,経路制約,二部間マッチング,容量制約という,制約を伴う4つの新しいレスレス・バンディット問題に対して,SEQUOIAを実証的に検証した。
論文 参考訳(メタデータ) (2025-03-01T21:25:21Z) - Toward Dependency Dynamics in Multi-Agent Reinforcement Learning for Traffic Signal Control [8.312659530314937]
適応的な信号制御のためのデータ駆動型アプローチとして強化学習(RL)が出現する。
本稿では,DQN-DPUS(Deep Q-Network)のための動的強化更新戦略を提案する。
提案手法は最適探索を犠牲にすることなく収束速度を向上できることを示す。
論文 参考訳(メタデータ) (2025-02-23T15:29:12Z) - DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - Model-free Learning of Corridor Clearance: A Near-term Deployment
Perspective [5.39179984304986]
コネクテッド・アンド・オートマチック・ビークル(CAV)技術の公衆衛生応用は、交通を間接的に調整することで救急医療サービス(EMS)の応答時間を短縮することである。
このトピックに関する既存の研究は、EMS車両の故障が通常の交通に与える影響を見落とし、100%CAVの侵入を仮定し、交差点におけるリアルタイム交通信号タイミングデータと待ち行列長に依存し、最適なモデルに基づくCAV制御戦略を導出する際の交通設定について様々な仮定を行う。
これらの課題を克服し、短期的実世界の適用性を高めるために、深部強化学習(DRL)を用いたCAV制御戦略設計のためのモデルフリーアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-16T06:08:53Z) - Cooperative Multi-Objective Reinforcement Learning for Traffic Signal
Control and Carbon Emission Reduction [3.3454373538792552]
本稿では,多目的多元的深層決定主義政策グラディエントという協調型多目的アーキテクチャを提案する。
MOMA-DDPGは、年齢遅延重みを用いた信号制御最適化のための複数の報酬項を推定する。
以上の結果から,MOMA-DDPGの有効性が示された。
論文 参考訳(メタデータ) (2023-06-16T07:37:05Z) - iPLAN: Intent-Aware Planning in Heterogeneous Traffic via Distributed
Multi-Agent Reinforcement Learning [57.24340061741223]
本稿では,高密度および不均一な交通シナリオにおける軌跡や意図を予測できる分散マルチエージェント強化学習(MARL)アルゴリズムを提案する。
インテント対応プランニングのアプローチであるiPLANにより、エージェントは近くのドライバーの意図をローカルな観察からのみ推測できる。
論文 参考訳(メタデータ) (2023-06-09T20:12:02Z) - Flatland Competition 2020: MAPF and MARL for Efficient Train
Coordination on a Grid World [49.80905654161763]
車両再スケジュール問題(vrsp)の解法開発を目的としたフラットランドコンペティション
VRSPは、交通ネットワークにおける旅行のスケジュールと、故障が発生した場合の車両の再スケジュールに関するものである。
現代の鉄道網の複雑化は、交通の動的リアルタイムスケジューリングを事実上不可能にします。
論文 参考訳(メタデータ) (2021-03-30T17:13:29Z) - MetaVIM: Meta Variationally Intrinsic Motivated Reinforcement Learning for Decentralized Traffic Signal Control [54.162449208797334]
交通信号制御は、交差点を横断する交通信号を調整し、地域や都市の交通効率を向上させることを目的としている。
近年,交通信号制御に深部強化学習(RL)を適用し,各信号がエージェントとみなされる有望な性能を示した。
本稿では,近隣情報を考慮した各交差点の分散化政策を潜時的に学習するメタ変動固有モチベーション(MetaVIM)RL法を提案する。
論文 参考訳(メタデータ) (2021-01-04T03:06:08Z) - Optimizing Mixed Autonomy Traffic Flow With Decentralized Autonomous
Vehicles and Multi-Agent RL [63.52264764099532]
本研究では、完全分散制御方式を用いて、混合自律環境でのボトルネックのスループットを向上させる自動運転車の能力について検討する。
この問題にマルチエージェント強化アルゴリズムを適用し、5%の浸透速度で20%から40%の浸透速度で33%までのボトルネックスループットの大幅な改善が達成できることを実証した。
論文 参考訳(メタデータ) (2020-10-30T22:06:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。