論文の概要: Multi-Agent Car Parking using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2206.13338v1
- Date: Wed, 22 Jun 2022 16:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 01:48:26.911431
- Title: Multi-Agent Car Parking using Reinforcement Learning
- Title(参考訳): 強化学習を用いたマルチエージェント駐車場
- Authors: Omar Tanner
- Abstract要約: 本研究は、マルチエージェント駐車場問題に強化学習を適用した。
我々は、独立学習者とマルコフ決定プロセスの形で、フレキシブルな駐車場環境を設計し、実装する。
我々は、98.1%以上の成功率で7台の車に駐車するモデルを取得し、既存のシングルエージェントモデルを大きく上回った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the industry of autonomous driving grows, so does the potential
interaction of groups of autonomous cars. Combined with the advancement of
Artificial Intelligence and simulation, such groups can be simulated, and
safety-critical models can be learned controlling the cars within. This study
applies reinforcement learning to the problem of multi-agent car parking, where
groups of cars aim to efficiently park themselves, while remaining safe and
rational. Utilising robust tools and machine learning frameworks, we design and
implement a flexible car parking environment in the form of a Markov decision
process with independent learners, exploiting multi-agent communication. We
implement a suite of tools to perform experiments at scale, obtaining models
parking up to 7 cars with over a 98.1% success rate, significantly beating
existing single-agent models. We also obtain several results relating to
competitive and collaborative behaviours exhibited by the cars in our
environment, with varying densities and levels of communication. Notably, we
discover a form of collaboration that cannot arise without competition, and a
'leaky' form of collaboration whereby agents collaborate without sufficient
state. Such work has numerous potential applications in the autonomous driving
and fleet management industries, and provides several useful techniques and
benchmarks for the application of reinforcement learning to multi-agent car
parking.
- Abstract(参考訳): 自動運転の産業が成長するにつれて、自動運転車のグループの潜在的な相互作用も増加する。
人工知能とシミュレーションの進歩と組み合わせて、そのようなグループをシミュレートし、車内を制御する安全クリティカルモデルを学ぶことができる。
本研究は,車両群が安全かつ合理的でありながら,効率的な駐車を目指すマルチエージェント駐車場の問題に対して,強化学習を適用する。
頑健なツールと機械学習フレームワークを活用して,マルチエージェント通信を活用した,独立学習者によるマルコフ決定プロセスという形式で,柔軟な駐車場環境を設計し,実装する。
実験を行うための一連のツールを実装し、98.1%以上の成功率で最大7台の車を駐車させ、既存のシングルエージェントモデルを大幅に上回った。
また,我々の環境における自動車の競争行動や協調行動に関するいくつかの結果も得られ,その密度やコミュニケーションのレベルは様々である。
特に、競争なしでは起こり得ないコラボレーションの形式と、エージェントが十分な状態なしに協力する「レキー」なコラボレーションの形式を見出す。
このような作業は、自律走行および艦隊管理産業に多くの潜在的応用をもたらし、強化学習のマルチエージェント駐車場への適用に有用な技術とベンチマークを提供している。
関連論文リスト
- WHALES: A Multi-agent Scheduling Dataset for Enhanced Cooperation in Autonomous Driving [54.365702251769456]
我々は、駆動シーケンス当たり平均8.4エージェントのデータセットを提示する。
自律運転データセットの中で最大のエージェントと視点を提供するだけでなく、WHALESはエージェントの振る舞いを記録する。
エージェントスケジューリングタスクにおいて,エゴエージェントが複数の候補エージェントの1つを選択して協調する実験を行う。
論文 参考訳(メタデータ) (2024-11-20T14:12:34Z) - Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [79.088116316919]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - AgentsCoDriver: Large Language Model Empowered Collaborative Driving with Lifelong Learning [9.456294912296219]
現在の自律運転システムは、解釈可能性、一般化、継続的な学習能力の欠如を示す。
我々は,大規模言語モデル(LLM)を活用して,複数車両の協調運転を可能にする新しいフレームワークであるAgentsCoDriverを開発した。
論文 参考訳(メタデータ) (2024-04-09T14:33:16Z) - AutoAct: Automatic Agent Learning from Scratch for QA via Self-Planning [54.47116888545878]
AutoActはQAのための自動エージェント学習フレームワークである。
大規模アノテートデータやクローズドソースモデルからの合成計画軌道は依存していない。
論文 参考訳(メタデータ) (2024-01-10T16:57:24Z) - Multi-Agent Deep Reinforcement Learning for Cooperative and Competitive
Autonomous Vehicles using AutoDRIVE Ecosystem [1.1893676124374688]
我々は、ニジェールとF1TENTHの物理的に正確でグラフィカルなデジタル双対を開発するために、AutoDRIVE Ecosystemを導入する。
まず,複数エージェントの学習環境だけでなく,限られた状態情報を相互に共有する一組の協調車両(Nigel)を用いた交差点問題について検討する。
次に、異なる車両群(F1TENTH)を用いて、個別のポリシーアプローチを用いたマルチエージェント学習環境において、対向的なヘッドツーヘッド自律レース問題を調査する。
論文 参考訳(メタデータ) (2023-09-18T02:43:59Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Evaluating the Robustness of Deep Reinforcement Learning for Autonomous
Policies in a Multi-agent Urban Driving Environment [3.8073142980733]
視覚に基づく自律運転における深層強化学習の比較のためのベンチマークフレームワークを提案する。
この実験は、視覚のみの高忠実度都市運転模擬環境で実施する。
その結果, 深層強化学習アルゴリズムのいくつかは, シングルエージェントとマルチエージェントのシナリオで一貫した性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2021-12-22T15:14:50Z) - SMARTS: Scalable Multi-Agent Reinforcement Learning Training School for
Autonomous Driving [96.50297622371457]
マルチエージェントインタラクションは、現実の世界における自律運転の基本的な側面である。
研究と開発が10年以上続いたにもかかわらず、様々なシナリオで多様な道路ユーザーと対話する方法の問題は未解決のままである。
SMARTSと呼ばれる,多種多様な運転インタラクションを生成する専用シミュレーションプラットフォームを開発した。
論文 参考訳(メタデータ) (2020-10-19T18:26:10Z) - Efficient Connected and Automated Driving System with Multi-agent Graph
Reinforcement Learning [22.369111982782634]
最近、コネクテッド・アンド・オートマチック・ビークル(CAV)が注目を集めている。
我々は,各自動走行車両が相互に協力関係を学べるようにすることで,交通システム全体の成果を改善する方法に焦点をあてる。
論文 参考訳(メタデータ) (2020-07-06T14:55:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。