論文の概要: Impact of Collective Behaviors of Autonomous Vehicles on Urban Traffic Dynamics: A Multi-Agent Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2509.22216v1
- Date: Fri, 26 Sep 2025 11:29:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.38913
- Title: Impact of Collective Behaviors of Autonomous Vehicles on Urban Traffic Dynamics: A Multi-Agent Reinforcement Learning Approach
- Title(参考訳): 自動車の集合行動が都市交通動態に及ぼす影響:マルチエージェント強化学習アプローチ
- Authors: Ahmet Onur Akman, Anastasia Psarou, Zoltán György Varga, Grzegorz Jamróz, Rafał Kucharski,
- Abstract要約: 本研究では, 混合交通環境下での都市交通流に対する強化学習(RL)対応自動運転車(AV)の潜在的影響について検討した。
人間の運転者が選択した経路を走行し、最低旅行時間で目的地にたどり着く都市ネットワークを考える。
最適化目標のセットを定義するか、あるいはそれらが行動と呼ぶように、利己的、協力的、競争的、社会的、利他的、悪意的を定義します。
シミュレーションの結果,AVの走行時間は最大5%まで最適化され,AVの挙動によって人体運転者の走行時間に異なる影響が認められた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study examines the potential impact of reinforcement learning (RL)-enabled autonomous vehicles (AV) on urban traffic flow in a mixed traffic environment. We focus on a simplified day-to-day route choice problem in a multi-agent setting. We consider a city network where human drivers travel through their chosen routes to reach their destinations in minimum travel time. Then, we convert one-third of the population into AVs, which are RL agents employing Deep Q-learning algorithm. We define a set of optimization targets, or as we call them behaviors, namely selfish, collaborative, competitive, social, altruistic, and malicious. We impose a selected behavior on AVs through their rewards. We run our simulations using our in-house developed RL framework PARCOUR. Our simulations reveal that AVs optimize their travel times by up to 5\%, with varying impacts on human drivers' travel times depending on the AV behavior. In all cases where AVs adopt a self-serving behavior, they achieve shorter travel times than human drivers. Our findings highlight the complexity differences in learning tasks of each target behavior. We demonstrate that the multi-agent RL setting is applicable for collective routing on traffic networks, though their impact on coexisting parties greatly varies with the behaviors adopted.
- Abstract(参考訳): 本研究では, 混合交通環境下での都市交通流に対する強化学習(RL)対応自動運転車(AV)の潜在的影響について検討した。
マルチエージェント環境での経路選択の簡易化に着目する。
人間の運転者が選択した経路を走行し、最低旅行時間で目的地にたどり着く都市ネットワークを考える。
次に、人口の3分の1を、深層Q学習アルゴリズムを用いたRLエージェントであるAVに変換する。
最適化目標のセットを定義するか、あるいはそれらが行動と呼ぶように、利己的、協力的、競争的、社会的、利他的、悪意的を定義します。
私たちはその報酬を通じて、AVに選択した振る舞いを課します。
社内で開発した RL フレームワーク PARCOUR を用いてシミュレーションを行う。
シミュレーションにより,AVの走行時間を最大5倍に最適化し,AVの挙動に応じてドライバーの走行時間に異なる影響が認められた。
AVが自給自足行動を採用する場合、それらは人間ドライバーよりも短い移動時間を達成する。
本研究は,各目標行動の学習課題における複雑性の違いを明らかにするものである。
複数エージェントのRL設定は、ネットワーク上の集合的なルーティングに適用可能であるが、既存のパーティへの影響は、採用される動作と大きく異なる。
関連論文リスト
- Collaboration Between the City and Machine Learning Community is Crucial to Efficient Autonomous Vehicles Routing [0.0]
自動運転車(AV)は、交通ネットワークを不安定にすることができる。
人間のドライバーとAVをシミュレートすることで、この相互作用を研究する。
我々は、市当局がMLコミュニティと協力して、自動車メーカーが提案するルーティングアルゴリズムを監視し、批判的に評価する必要があると主張している。
論文 参考訳(メタデータ) (2025-02-18T13:37:02Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - iPLAN: Intent-Aware Planning in Heterogeneous Traffic via Distributed
Multi-Agent Reinforcement Learning [57.24340061741223]
本稿では,高密度および不均一な交通シナリオにおける軌跡や意図を予測できる分散マルチエージェント強化学習(MARL)アルゴリズムを提案する。
インテント対応プランニングのアプローチであるiPLANにより、エージェントは近くのドライバーの意図をローカルな観察からのみ推測できる。
論文 参考訳(メタデータ) (2023-06-09T20:12:02Z) - Studying the Impact of Semi-Cooperative Drivers on Overall Highway Flow [76.38515853201116]
半協調行動は、人間ドライバーの本質的な性質であり、自律運転には考慮すべきである。
新たな自律型プランナーは、社会的に準拠した軌道を生成するために、人間のドライバーの社会的価値指向(SVO)を考慮することができる。
エージェントが反復的最適応答のゲーム理論バージョンをデプロイする暗黙的な半協調運転について検討する。
論文 参考訳(メタデータ) (2023-04-23T16:01:36Z) - Exploring the trade off between human driving imitation and safety for
traffic simulation [0.34410212782758043]
運転方針の学習において,人間の運転の模倣と安全維持との間にはトレードオフが存在することを示す。
両目的を協調的に改善する多目的学習アルゴリズム(MOPPO)を提案する。
論文 参考訳(メタデータ) (2022-08-09T14:30:19Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Multi-agent Reinforcement Learning for Cooperative Lane Changing of
Connected and Autonomous Vehicles in Mixed Traffic [16.858651125916133]
レーン変更は、混合および動的交通シナリオにおける自動運転車(AV)にとって大きな課題である。
本稿では,マルチエージェント強化学習(MARL)問題として,混在高速道路環境における複数のAVの車線変更決定を定式化する。
提案するMARLフレームワークは,効率,安全性,ドライバの快適性という点で,最先端のベンチマークを一貫して上回っている。
論文 参考訳(メタデータ) (2021-11-11T17:17:24Z) - Learning Interaction-aware Guidance Policies for Motion Planning in
Dense Traffic Scenarios [8.484564880157148]
本稿では,高密度交通シナリオにおける対話型モーションプランニングのための新しい枠組みを提案する。
我々は,他車両の協調性に関する国際的ガイダンスを提供するインタラクション対応政策であるDeep Reinforcement Learning (RL) を通じて学習することを提案する。
学習されたポリシーは、ローカル最適化ベースのプランナーを推論し、対話的な振る舞いで誘導し、他の車両が収まらない場合に安全を維持しながら、密集したトラフィックに積極的にマージする。
論文 参考訳(メタデータ) (2021-07-09T16:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。