論文の概要: Deep Reinforcement Learning to Maximize Arterial Usage during Extreme
Congestion
- arxiv url: http://arxiv.org/abs/2305.09600v1
- Date: Tue, 16 May 2023 16:53:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 14:01:34.888645
- Title: Deep Reinforcement Learning to Maximize Arterial Usage during Extreme
Congestion
- Title(参考訳): 極度の混雑時の動脈使用を最大化する深層強化学習
- Authors: Ashutosh Dutta, Milan Jain, Arif Khan, and Arun Sathanur
- Abstract要約: 本稿では,過度の混雑中における多車線高速道路の交通渋滞を軽減するための深層強化学習(DRL)手法を提案する。
エージェントは、渋滞した高速道路交通に対する適応的な抑止戦略を学ぶために訓練される。
エージェントは、急激な混雑時の非作用と比較して平均交通速度を21%向上させることができる。
- 参考スコア(独自算出の注目度): 4.934817254755007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collisions, crashes, and other incidents on road networks, if left
unmitigated, can potentially cause cascading failures that can affect large
parts of the system. Timely handling such extreme congestion scenarios is
imperative to reduce emissions, enhance productivity, and improve the quality
of urban living. In this work, we propose a Deep Reinforcement Learning (DRL)
approach to reduce traffic congestion on multi-lane freeways during extreme
congestion. The agent is trained to learn adaptive detouring strategies for
congested freeway traffic such that the freeway lanes along with the local
arterial network in proximity are utilized optimally, with rewards being
congestion reduction and traffic speed improvement. The experimental setup is a
2.6-mile-long 4-lane freeway stretch in Shoreline, Washington, USA with two
exits and associated arterial roads simulated on a microscopic and continuous
multi-modal traffic simulator SUMO (Simulation of Urban MObility) while using
parameterized traffic profiles generated using real-world traffic data. Our
analysis indicates that DRL-based controllers can improve average traffic speed
by 21\% when compared to no-action during steep congestion. The study further
discusses the trade-offs involved in the choice of reward functions, the impact
of human compliance on agent performance, and the feasibility of knowledge
transfer from one agent to other to address data sparsity and scaling issues.
- Abstract(参考訳): 衝突、事故、その他の道路ネットワーク上の事故は、未解決のままにしておけば、システムの大部分に影響を与えるカスケード障害を引き起こす可能性がある。
このような極端な渋滞シナリオをタイムリーに扱うことは、排出削減、生産性の向上、都市生活の質の向上に不可欠である。
本研究では,高混雑時の多車線高速道路の交通渋滞を低減するための深層強化学習(drl)手法を提案する。
本発明のエージェントは、混雑する高速道路交通に対する適応的抑止戦略を学習し、渋滞低減と交通速度改善の報奨とともに、局所的動脈網と近接する高速道路レーンを最適に活用するように訓練する。
実験装置は、米国ワシントン州ショアラインにある全長2.6マイルの4車線の高速道路延長で、2つの出口とそれに伴う動脈道路を顕微鏡的かつ連続的なマルチモーダル交通シミュレータSUMO(Simulation of Urban Mobility)上に模擬し、実際の交通データを用いてパラメータ化された交通プロファイルを使用する。
DRLをベースとした制御器は,急激な混雑時の非作用と比較して平均交通速度を21倍向上させることができる。
さらに、報酬関数の選択に関わるトレードオフ、エージェントのパフォーマンスに対する人間のコンプライアンスの影響、データ分散とスケーリングの問題に対処するために、あるエージェントから他のエージェントへの知識伝達の実現可能性についても論じる。
関連論文リスト
- Improving Traffic Flow Predictions with SGCN-LSTM: A Hybrid Model for Spatial and Temporal Dependencies [55.2480439325792]
本稿ではSGCN-LSTM(Signal-Enhanced Graph Convolutional Network Long Short Term Memory)モデルを提案する。
PEMS-BAYロードネットワークトラフィックデータセットの実験は、SGCN-LSTMモデルの有効性を示す。
論文 参考訳(メタデータ) (2024-11-01T00:37:00Z) - Reinforcement Learning for Adaptive Traffic Signal Control: Turn-Based and Time-Based Approaches to Reduce Congestion [2.733700237741334]
本稿では,交差点における信号処理の強化にReinforcement Learning(強化学習)を用いることについて検討する。
本稿では,リアルタイム待ち行列長に基づく信号の動的優先順位付けを行うターンベースエージェントと,交通条件に応じた信号位相長の調整を行うタイムベースエージェントの2つのアルゴリズムを紹介する。
シミュレーションの結果、両RLアルゴリズムは従来の信号制御システムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-08-28T12:35:56Z) - Quantum Annealing Approach for the Optimal Real-time Traffic Control using QUBO [17.027096728412758]
交通渋滞は都市部の主要な問題の一つである。
渋滞を緩和するために交通の流れを制御する方法が交通研究の中心的な問題の一つとなっている。
論文 参考訳(メタデータ) (2024-03-14T01:24:19Z) - AVARS -- Alleviating Unexpected Urban Road Traffic Congestion using UAVs [1.350455609556855]
本稿では, DRLを用いた交通信号制御により, 予期せぬ都市交通渋滞を低減するためにUAVを使用する可能性を探る「AVARS」システムを提案する。
シミュレーションの結果,AVARSはアイルランドのダブリンで発生した予期せぬ交通渋滞を,本来の非混雑レベルに戻すことができることがわかった。
論文 参考訳(メタデータ) (2023-09-10T09:40:20Z) - DenseLight: Efficient Control for Large-scale Traffic Signals with Dense
Feedback [109.84667902348498]
交通信号制御(TSC)は、道路網における車両の平均走行時間を短縮することを目的としている。
従来のTSC手法は、深い強化学習を利用して制御ポリシーを探索する。
DenseLightは、不偏報酬関数を用いてポリシーの有効性をフィードバックする新しいRTLベースのTSC手法である。
論文 参考訳(メタデータ) (2023-06-13T05:58:57Z) - iPLAN: Intent-Aware Planning in Heterogeneous Traffic via Distributed
Multi-Agent Reinforcement Learning [57.24340061741223]
本稿では,高密度および不均一な交通シナリオにおける軌跡や意図を予測できる分散マルチエージェント強化学習(MARL)アルゴリズムを提案する。
インテント対応プランニングのアプローチであるiPLANにより、エージェントは近くのドライバーの意図をローカルな観察からのみ推測できる。
論文 参考訳(メタデータ) (2023-06-09T20:12:02Z) - Leveraging Neo4j and deep learning for traffic congestion simulation &
optimization [0.0]
渋滞や事故の場合に交通が後進的に伝播し,道路の他の部分への全体的影響を示す。
また、実時間トラフィックデータに基づいて連続的なRNN-LSTM(Long Short-Term Memory)ディープラーニングモデルを訓練し、道路固有の渋滞に基づいてシミュレーション結果の精度を評価する。
論文 参考訳(メタデータ) (2023-04-01T01:23:10Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - Road Network Guided Fine-Grained Urban Traffic Flow Inference [108.64631590347352]
粗いトラフィックからのきめ細かなトラフィックフローの正確な推測は、新たな重要な問題である。
本稿では,道路ネットワークの知識を活かした新しい道路対応交通流磁化器(RATFM)を提案する。
提案手法は,高品質なトラフィックフローマップを作成できる。
論文 参考訳(メタデータ) (2021-09-29T07:51:49Z) - An Experimental Urban Case Study with Various Data Sources and a Model
for Traffic Estimation [65.28133251370055]
我々はスイスのチューリッヒの都市ネットワーク内の地域でビデオ計測による実験キャンペーンを組織した。
我々は,既存のサーマルカメラからの測定を確実にすることで,交通の流れや走行時間の観点からの交通状況の把握に注力する。
本稿では,様々なデータソースの融合による移動時間を推定するために,単純かつ効率的な多重線形回帰(MLR)モデルを提案する。
論文 参考訳(メタデータ) (2021-08-02T08:13:57Z) - Courteous Behavior of Automated Vehicles at Unsignalized Intersections
via Reinforcement Learning [30.00761722505295]
深層強化学習を用いた混在交通状況における交差点における交通流の最適化手法を提案する。
我々の強化学習エージェントは、信号のない交差点で接続された自動運転車が道路の権利を放棄し、交通の流れを最適化するために他の車両に利する、集中型制御器のポリシーを学習する。
論文 参考訳(メタデータ) (2021-06-11T13:16:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。