論文の概要: Multi-Agent Deep Reinforcement Learning for Cooperative and Competitive
Autonomous Vehicles using AutoDRIVE Ecosystem
- arxiv url: http://arxiv.org/abs/2309.10007v1
- Date: Mon, 18 Sep 2023 02:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 18:30:29.012846
- Title: Multi-Agent Deep Reinforcement Learning for Cooperative and Competitive
Autonomous Vehicles using AutoDRIVE Ecosystem
- Title(参考訳): オートドライブエコシステムを用いた協調・競争型自動運転車のマルチエージェント深部強化学習
- Authors: Tanmay Vilas Samak, Chinmay Vilas Samak and Venkat Krovi
- Abstract要約: 我々は、ニジェールとF1TENTHの物理的に正確でグラフィカルなデジタル双対を開発するために、AutoDRIVE Ecosystemを導入する。
まず,複数エージェントの学習環境だけでなく,限られた状態情報を相互に共有する一組の協調車両(Nigel)を用いた交差点問題について検討する。
次に、異なる車両群(F1TENTH)を用いて、個別のポリシーアプローチを用いたマルチエージェント学習環境において、対向的なヘッドツーヘッド自律レース問題を調査する。
- 参考スコア(独自算出の注目度): 1.1893676124374688
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents a modular and parallelizable multi-agent deep
reinforcement learning framework for imbibing cooperative as well as
competitive behaviors within autonomous vehicles. We introduce AutoDRIVE
Ecosystem as an enabler to develop physically accurate and graphically
realistic digital twins of Nigel and F1TENTH, two scaled autonomous vehicle
platforms with unique qualities and capabilities, and leverage this ecosystem
to train and deploy multi-agent reinforcement learning policies. We first
investigate an intersection traversal problem using a set of cooperative
vehicles (Nigel) that share limited state information with each other in single
as well as multi-agent learning settings using a common policy approach. We
then investigate an adversarial head-to-head autonomous racing problem using a
different set of vehicles (F1TENTH) in a multi-agent learning setting using an
individual policy approach. In either set of experiments, a decentralized
learning architecture was adopted, which allowed robust training and testing of
the approaches in stochastic environments, since the agents were mutually
independent and exhibited asynchronous motion behavior. The problems were
further aggravated by providing the agents with sparse observation spaces and
requiring them to sample control commands that implicitly satisfied the imposed
kinodynamic as well as safety constraints. The experimental results for both
problem statements are reported in terms of quantitative metrics and
qualitative remarks for training as well as deployment phases.
- Abstract(参考訳): 本研究は、自律走行車内における競争行動だけでなく、協調を模倣するモジュラーで並列化可能なマルチエージェント深層強化学習フレームワークを提案する。
我々は,ナイジェルとf1tenthの物理的に正確かつグラフィカルなデジタル双生児を開発するための実現要因として,autodriveエコシステムを導入する。
まず, 共通政策アプローチを用いたマルチエージェント学習設定だけでなく, 限定状態情報を共有する一組の協調車両(ナイジェル)を用いて, 交差点横断問題について検討する。
次に、異なる車両群(F1TENTH)を用いて、個別のポリシーアプローチを用いたマルチエージェント学習環境において、対向的なヘッドツーヘッド自律レース問題を調査する。
いずれの実験でも、エージェントが相互に独立し非同期動作を示すため、確率的環境におけるアプローチの堅牢なトレーニングとテストを可能にする分散学習アーキテクチャが採用された。
この問題はさらに悪化し、エージェントにスパースな観察空間を提供し、強制されたキノダイナミックと安全性の制約を暗黙的に満足するサンプル制御コマンドを要求された。
2つの問題文の実験結果は、トレーニングとデプロイメントフェーズの定量的指標と質的記述の観点で報告される。
関連論文リスト
- End-to-End Steering for Autonomous Vehicles via Conditional Imitation Co-Learning [1.5020330976600735]
この課題に対処するために、条件付き模倣コラーニング(CIC)アプローチを導入する。
そこで我々は, 回帰と分類のギャップを埋めるために, 分類-回帰ハイブリッド損失を用いて, 操舵回帰問題を分類として提案する。
本モデルは,CIL法と比較して,見えない環境下での自律走行の成功率を平均62%向上させることを実証した。
論文 参考訳(メタデータ) (2024-11-25T06:37:48Z) - Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [79.088116316919]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - Path Following and Stabilisation of a Bicycle Model using a Reinforcement Learning Approach [0.0]
この研究は、仮想自転車モデルで経路追従を行うためのRLアプローチを導入し、同時に横に安定化させる。
ステアリング角度を出力することによって、自転車モデルの経路追従と安定化を両立させる。
デプロイされたエージェントの性能は、異なる種類のパスと測定値を用いて評価される。
論文 参考訳(メタデータ) (2024-07-24T10:54:23Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Model-Based Reinforcement Learning with Isolated Imaginations [61.67183143982074]
モデルに基づく強化学習手法であるIso-Dream++を提案する。
我々は、切り離された潜在的想像力に基づいて政策最適化を行う。
これにより、野生の混合力学源を孤立させることで、長い水平振動子制御タスクの恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-03-27T02:55:56Z) - Safe Multi-agent Learning via Trapping Regions [89.24858306636816]
我々は、動的システムの定性理論から知られているトラップ領域の概念を適用し、分散学習のための共同戦略空間に安全セットを作成する。
本稿では,既知の学習力学を持つシステムにおいて,候補がトラップ領域を形成することを検証するための二分分割アルゴリズムと,学習力学が未知のシナリオに対するサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-27T14:47:52Z) - NeurIPS 2022 Competition: Driving SMARTS [60.948652154552136]
ドライビングSMARTSは、動的相互作用コンテキストにおける分散シフトに起因する問題に対処するために設計された定期的な競争である。
提案するコンペティションは,強化学習(RL)やオフライン学習など,方法論的に多様なソリューションをサポートする。
論文 参考訳(メタデータ) (2022-11-14T17:10:53Z) - A New Approach to Training Multiple Cooperative Agents for Autonomous
Driving [5.1930091960850415]
本稿では,複数のエージェントを学習するための新しいアプローチであるLepusを提案する。
Lepusは、敵のプロセスを通じてポリシーネットワークを事前訓練する。
スパース報酬の問題を緩和するために、ルパスは専門家軌跡から近似的な報酬関数を学習する。
論文 参考訳(メタデータ) (2022-09-05T22:35:33Z) - Evaluating the Robustness of Deep Reinforcement Learning for Autonomous
Policies in a Multi-agent Urban Driving Environment [3.8073142980733]
視覚に基づく自律運転における深層強化学習の比較のためのベンチマークフレームワークを提案する。
この実験は、視覚のみの高忠実度都市運転模擬環境で実施する。
その結果, 深層強化学習アルゴリズムのいくつかは, シングルエージェントとマルチエージェントのシナリオで一貫した性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2021-12-22T15:14:50Z) - Decentralized Motion Planning for Multi-Robot Navigation using Deep
Reinforcement Learning [0.41998444721319217]
本研究は、深層強化学習を用いたマルチロボットナビゲーションの課題に対処するための分散型モーションプランニングフレームワークを提案する。
共通かつ共有的な政策学習による分散的な行動計画の概念が採用され、このアプローチの堅牢なトレーニングとテストが可能となった。
論文 参考訳(メタデータ) (2020-11-11T07:35:21Z) - SMARTS: Scalable Multi-Agent Reinforcement Learning Training School for
Autonomous Driving [96.50297622371457]
マルチエージェントインタラクションは、現実の世界における自律運転の基本的な側面である。
研究と開発が10年以上続いたにもかかわらず、様々なシナリオで多様な道路ユーザーと対話する方法の問題は未解決のままである。
SMARTSと呼ばれる,多種多様な運転インタラクションを生成する専用シミュレーションプラットフォームを開発した。
論文 参考訳(メタデータ) (2020-10-19T18:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。