論文の概要: URB -- Urban Routing Benchmark for RL-equipped Connected Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2505.17734v1
- Date: Fri, 23 May 2025 10:54:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.013376
- Title: URB -- Urban Routing Benchmark for RL-equipped Connected Autonomous Vehicles
- Title(参考訳): URB-RL搭載コネクテッド・オートマチックカーの都市ルーティングベンチマーク
- Authors: Ahmet Onur Akman, Anastasia Psarou, Michał Hoffmann, Łukasz Gorczyca, Łukasz Kowalski, Paweł Gora, Grzegorz Jamróz, Rafał Kucharski,
- Abstract要約: 強化学習(RL)は、このような集合的ルーティング戦略の開発を容易にする。
RL搭載コネクテッド・オートマチック・ビークルの都市ルーティングベンチマークについて紹介する。
我々の結果は、長大でコストのかかるトレーニングにもかかわらず、最先端のMARLアルゴリズムが人間を上回ることは滅多にないことを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Connected Autonomous Vehicles (CAVs) promise to reduce congestion in future urban networks, potentially by optimizing their routing decisions. Unlike for human drivers, these decisions can be made with collective, data-driven policies, developed by machine learning algorithms. Reinforcement learning (RL) can facilitate the development of such collective routing strategies, yet standardized and realistic benchmarks are missing. To that end, we present \our{}: Urban Routing Benchmark for RL-equipped Connected Autonomous Vehicles. \our{} is a comprehensive benchmarking environment that unifies evaluation across 29 real-world traffic networks paired with realistic demand patterns. \our{} comes with a catalog of predefined tasks, four state-of-the-art multi-agent RL (MARL) algorithm implementations, three baseline methods, domain-specific performance metrics, and a modular configuration scheme. Our results suggest that, despite the lengthy and costly training, state-of-the-art MARL algorithms rarely outperformed humans. Experimental results reported in this paper initiate the first leaderboard for MARL in large-scale urban routing optimization and reveal that current approaches struggle to scale, emphasizing the urgent need for advancements in this domain.
- Abstract(参考訳): コネクテッド・オートモービルズ(CAV)は、将来の都市ネットワークにおいて、ルーティング決定を最適化することで渋滞を減らすことを約束している。
人間のドライバーとは違って、これらの決定は機械学習アルゴリズムによって開発された集合的でデータ駆動のポリシーで行うことができる。
強化学習(RL)は、このような集合的ルーティング戦略の開発を促進するが、標準化され、現実的なベンチマークが欠落している。
この目的のために、RLを搭載したコネクテッド・オートモービルズのための都市ルーティングベンチマークである \our{}: Urban Routing Benchmark を提示する。
\our{}は、現実的な需要パターンと組み合わせた29の現実世界のトラフィックネットワークに対する評価を統一する総合的なベンチマーク環境である。
\our{}には、事前に定義されたタスクのカタログ、最先端のマルチエージェントRL(MARL)アルゴリズム実装4つ、ベースラインメソッド3つ、ドメイン固有のパフォーマンスメトリクス、モジュール構成スキームが付属している。
我々の結果は、長大でコストのかかるトレーニングにもかかわらず、最先端のMARLアルゴリズムが人間を上回ることは滅多にないことを示唆している。
本稿では,大規模都市経路最適化におけるMARLの初となるリーダボードの導入と,現在のアプローチが拡張に苦慮していることを明らかにするとともに,この領域の急速な進歩の必要性を強調した。
関連論文リスト
- Accelerating Vehicle Routing via AI-Initialized Genetic Algorithms [55.78505925402658]
車両ルーティング問題(VRP)は、トラベリングセールスパーソン問題の延長であり、進化的最適化における基本的なNPハードチャレンジである。
遺伝的アルゴリズムによってさらに最適化された初期解を迅速に生成するために、強化学習エージェント(事前インスタンスで訓練された)を使用した新しい最適化フレームワークを導入する。
例えば、EARLIは1秒以内に500カ所の車両ルーティングを処理し、同じソリューション品質の現在のソルバよりも10倍高速で、リアルタイムやインタラクティブなルーティングのようなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2025-04-08T15:21:01Z) - Autonomous Vehicles Using Multi-Agent Reinforcement Learning for Routing Decisions Can Harm Urban Traffic [0.0]
同時経路最適化のためのマルチエージェント強化学習(MARL)を用いた自律走行車(AV)は、交通環境を不安定にする可能性がある。
標準的なMARLアルゴリズムによる実験では、自明な場合であっても、ポリシーが最適解に収束しない場合が多いことが判明した。
今後の研究は、現実的なベンチマーク、慎重なデプロイメント戦略、AVルーティングの監視と規制のためのツールを優先する必要がある。
論文 参考訳(メタデータ) (2025-02-18T13:37:02Z) - TeLL-Drive: Enhancing Autonomous Driving with Teacher LLM-Guided Deep Reinforcement Learning [61.33599727106222]
TeLL-Driveは、Teacher LLMを統合して、注意に基づく学生DRLポリシーをガイドするハイブリッドフレームワークである。
自己維持機構はDRLエージェントの探索とこれらの戦略を融合させ、政策収束を加速し、堅牢性を高める。
論文 参考訳(メタデータ) (2025-02-03T14:22:03Z) - From Imitation to Exploration: End-to-end Autonomous Driving based on World Model [24.578178308010912]
RAMBLEは、意思決定を駆動するエンド・ツー・エンドの世界モデルベースのRL方式である。
複雑な動的トラフィックシナリオを処理できる。
CARLA Leaderboard 1.0では、ルート完了率の最先端のパフォーマンスを達成し、CARLA Leaderboard 2.0では38のシナリオをすべて完了している。
論文 参考訳(メタデータ) (2024-10-03T06:45:59Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - Reinforcement Learning for Datacenter Congestion Control [50.225885814524304]
渋滞制御アルゴリズムの成功は、レイテンシとネットワーク全体のスループットを劇的に改善する。
今日まで、このような学習ベースのアルゴリズムはこの領域で実用的な可能性を示さなかった。
実世界のデータセンターネットワークの様々な構成に一般化することを目的としたRLに基づくアルゴリズムを考案する。
本稿では,この手法が他のRL手法よりも優れており,トレーニング中に見られなかったシナリオに一般化可能であることを示す。
論文 参考訳(メタデータ) (2021-02-18T13:49:28Z) - Pareto Deterministic Policy Gradients and Its Application in 5G Massive
MIMO Networks [32.099949375036495]
我々は,強化学習(RL)アプローチを用いて,セルロードバランスとネットワークスループットを協調的に最適化することを検討する。
RLの背景にある理論的根拠は、ユーザモビリティとネットワークのダイナミクスを解析的にモデル化することの難しさを回避することである。
この共同最適化を実現するために、ベクトル報酬をRL値ネットワークに統合し、別々のポリシーネットワークを介してRLアクションを実行する。
論文 参考訳(メタデータ) (2020-12-02T15:35:35Z) - Decentralized Deep Reinforcement Learning for Network Level Traffic
Signal Control [0.8838408191955874]
本稿では,交通信号制御における高速かつリアルタイムな性能を実現するために,完全分散型深層マルチエージェント強化学習(MARL)アルゴリズムのファミリーを提案する。
各交差点は、他の交差点ノードに対してマルコフゲームを行うエージェントとしてモデル化される。
実験結果から,S2R2Lはトレーニング過程において,IDQLやS2RLよりも高速に収束し,収束性能が向上していることがわかった。
論文 参考訳(メタデータ) (2020-07-02T06:58:27Z) - IG-RL: Inductive Graph Reinforcement Learning for Massive-Scale Traffic
Signal Control [4.273991039651846]
適応的な交通信号制御のスケーリングには、状態と行動空間を扱う必要がある。
本稿では,グラフ畳み込みネットワークに基づくインダクティブグラフ強化学習(IG-RL)を紹介する。
我々のモデルは、新しい道路網、交通分布、交通体制に一般化することができる。
論文 参考訳(メタデータ) (2020-03-06T17:17:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。