論文の概要: A New Approach to Training Multiple Cooperative Agents for Autonomous
Driving
- arxiv url: http://arxiv.org/abs/2209.02157v1
- Date: Mon, 5 Sep 2022 22:35:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 13:51:35.475506
- Title: A New Approach to Training Multiple Cooperative Agents for Autonomous
Driving
- Title(参考訳): 自律運転のための複数の協調エージェントの訓練手法
- Authors: Ruiyang Yang, Siheng Li, Beihong Jin
- Abstract要約: 本稿では,複数のエージェントを学習するための新しいアプローチであるLepusを提案する。
Lepusは、敵のプロセスを通じてポリシーネットワークを事前訓練する。
スパース報酬の問題を緩和するために、ルパスは専門家軌跡から近似的な報酬関数を学習する。
- 参考スコア(独自算出の注目度): 5.1930091960850415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training multiple agents to perform safe and cooperative control in the
complex scenarios of autonomous driving has been a challenge. For a small fleet
of cars moving together, this paper proposes Lepus, a new approach to training
multiple agents. Lepus adopts a pure cooperative manner for training multiple
agents, featured with the shared parameters of policy networks and the shared
reward function of multiple agents. In particular, Lepus pre-trains the policy
networks via an adversarial process, improving its collaborative
decision-making capability and further the stability of car driving. Moreover,
for alleviating the problem of sparse rewards, Lepus learns an approximate
reward function from expert trajectories by combining a random network and a
distillation network. We conduct extensive experiments on the MADRaS simulation
platform. The experimental results show that multiple agents trained by Lepus
can avoid collisions as many as possible while driving simultaneously and
outperform the other four methods, that is, DDPG-FDE, PSDDPG, MADDPG, and
MAGAIL(DDPG) in terms of stability.
- Abstract(参考訳): 自律運転の複雑なシナリオにおいて、安全かつ協調的な制御を行うために複数のエージェントを訓練することは困難である。
この論文は、複数のエージェントを訓練するための新しいアプローチであるlepusを提案する。
lepusは、ポリシーネットワークの共有パラメータと複数のエージェントの共有報酬機能を備えた、純粋に協力的な方法で複数のエージェントを訓練する。
特に、lepusは政策ネットワークを敵対的プロセスを通じて事前訓練し、協調的な意思決定能力を改善し、さらに自動車運転の安定性を高める。
さらに、スパース報酬の問題を軽減するために、ランダムネットワークと蒸留ネットワークを組み合わせることにより、専門家軌道から近似報酬関数を学習する。
我々はMADRaSシミュレーションプラットフォーム上で広範な実験を行う。
実験の結果,レプスで訓練された複数のエージェントは,同時に運転しながら衝突を回避でき,他の4つの方法,すなわちDDPG-FDE,PSDDPG,MADDPG,MAGAIL(DDPG)の安定性に優れていた。
関連論文リスト
- WHALES: A Multi-agent Scheduling Dataset for Enhanced Cooperation in Autonomous Driving [54.365702251769456]
我々は、駆動シーケンス当たり平均8.4エージェントのデータセットを提示する。
自律運転データセットの中で最大のエージェントと視点を提供するだけでなく、WHALESはエージェントの振る舞いを記録する。
エージェントスケジューリングタスクにおいて,エゴエージェントが複数の候補エージェントの1つを選択して協調する実験を行う。
論文 参考訳(メタデータ) (2024-11-20T14:12:34Z) - Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [79.088116316919]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - Multi-Agent Deep Reinforcement Learning for Cooperative and Competitive
Autonomous Vehicles using AutoDRIVE Ecosystem [1.1893676124374688]
我々は、ニジェールとF1TENTHの物理的に正確でグラフィカルなデジタル双対を開発するために、AutoDRIVE Ecosystemを導入する。
まず,複数エージェントの学習環境だけでなく,限られた状態情報を相互に共有する一組の協調車両(Nigel)を用いた交差点問題について検討する。
次に、異なる車両群(F1TENTH)を用いて、個別のポリシーアプローチを用いたマルチエージェント学習環境において、対向的なヘッドツーヘッド自律レース問題を調査する。
論文 参考訳(メタデータ) (2023-09-18T02:43:59Z) - On Multi-Agent Deep Deterministic Policy Gradients and their
Explainability for SMARTS Environment [0.0]
MARL(Multi-Agent RL)は、自律走行文学における複雑な問題の1つで、今日の完全自動運転車のリリースを妨げている。
いくつかのシミュレーターは、自律運転における複数のエージェントによる複雑なシナリオの問題を軽減するために、その開始後に反復されている。
論文 参考訳(メタデータ) (2023-01-20T03:17:16Z) - RPM: Generalizable Behaviors for Multi-Agent Reinforcement Learning [90.43925357575543]
本稿では,MARLポリシーを総合性良く訓練するための多様なマルチエージェントトラジェクトリを収集するために,ランク付けされたポリシーメモリ(RPM)を提案する。
RPMにより、マルチエージェントの一般化評価シナリオと完全なタスクにおいて、MARLエージェントが未確認エージェントと対話することが可能になり、平均402%のパフォーマンスが大幅に向上する。
論文 参考訳(メタデータ) (2022-10-18T07:32:43Z) - Hierarchical Reinforcement Learning with Opponent Modeling for
Distributed Multi-agent Cooperation [13.670618752160594]
深層強化学習(DRL)はエージェントと環境の相互作用を通じて多エージェント協調に有望なアプローチを提供する。
従来のDRLソリューションは、ポリシー探索中に連続的なアクション空間を持つ複数のエージェントの高次元に悩まされる。
効率的な政策探索のための高レベル意思決定と低レベル個別制御を用いた階層型強化学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-25T19:09:29Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z) - Supervised Permutation Invariant Networks for Solving the CVRP with
Bounded Fleet Size [3.5235974685889397]
車両ルーティング問題などの最適化問題を解くための学習は、大きな計算上の利点をもたらす。
本研究では,アプリオリ固定数の車両を尊重しながら,スクラッチから完全なツアー計画を構築する強力な教師付きディープラーニングフレームワークを提案する。
効率的な後処理方式と組み合わせることで,教師付きアプローチはより高速かつ容易にトレーニングできるだけでなく,競争力のある結果が得られる。
論文 参考訳(メタデータ) (2022-01-05T10:32:18Z) - Flatland Competition 2020: MAPF and MARL for Efficient Train
Coordination on a Grid World [49.80905654161763]
車両再スケジュール問題(vrsp)の解法開発を目的としたフラットランドコンペティション
VRSPは、交通ネットワークにおける旅行のスケジュールと、故障が発生した場合の車両の再スケジュールに関するものである。
現代の鉄道網の複雑化は、交通の動的リアルタイムスケジューリングを事実上不可能にします。
論文 参考訳(メタデータ) (2021-03-30T17:13:29Z) - SMARTS: Scalable Multi-Agent Reinforcement Learning Training School for
Autonomous Driving [96.50297622371457]
マルチエージェントインタラクションは、現実の世界における自律運転の基本的な側面である。
研究と開発が10年以上続いたにもかかわらず、様々なシナリオで多様な道路ユーザーと対話する方法の問題は未解決のままである。
SMARTSと呼ばれる,多種多様な運転インタラクションを生成する専用シミュレーションプラットフォームを開発した。
論文 参考訳(メタデータ) (2020-10-19T18:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。