論文の概要: Decentralized Motion Planning for Multi-Robot Navigation using Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2011.05605v2
- Date: Fri, 20 Nov 2020 18:19:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 22:58:17.160688
- Title: Decentralized Motion Planning for Multi-Robot Navigation using Deep
Reinforcement Learning
- Title(参考訳): 深部強化学習を用いたマルチロボットナビゲーションのための分散動作計画
- Authors: Sivanathan Kandhasamy, Vinayagam Babu Kuppusamy, Tanmay Vilas Samak,
Chinmay Vilas Samak
- Abstract要約: 本研究は、深層強化学習を用いたマルチロボットナビゲーションの課題に対処するための分散型モーションプランニングフレームワークを提案する。
共通かつ共有的な政策学習による分散的な行動計画の概念が採用され、このアプローチの堅牢なトレーニングとテストが可能となった。
- 参考スコア(独自算出の注目度): 0.41998444721319217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents a decentralized motion planning framework for addressing
the task of multi-robot navigation using deep reinforcement learning. A custom
simulator was developed in order to experimentally investigate the navigation
problem of 4 cooperative non-holonomic robots sharing limited state information
with each other in 3 different settings. The notion of decentralized motion
planning with common and shared policy learning was adopted, which allowed
robust training and testing of this approach in a stochastic environment since
the agents were mutually independent and exhibited asynchronous motion
behavior. The task was further aggravated by providing the agents with a sparse
observation space and requiring them to generate continuous action commands so
as to efficiently, yet safely navigate to their respective goal locations,
while avoiding collisions with other dynamic peers and static obstacles at all
times. The experimental results are reported in terms of quantitative measures
and qualitative remarks for both training and deployment phases.
- Abstract(参考訳): 本稿では,深層強化学習を用いたマルチロボットナビゲーションの課題に対処する分散型モーションプランニングフレームワークを提案する。
限られた状態情報を3つの異なる環境で共有する4つの非ホロノミックロボットのナビゲーション問題を実験的に検討するために,カスタムシミュレータを開発した。
共通かつ共有的な政策学習による分散型動作計画の概念が採用され、エージェントが相互独立で非同期動作の挙動を示したため、確率的環境下でのこのアプローチの堅牢なトレーニングとテストが可能となった。
このタスクは、エージェントにスパースな観測空間を提供し、他の動的ピアや静的障害物との衝突を常に回避しながら、効率的にかつ安全にそれぞれの目標地点に移動するために、継続的なアクションコマンドを生成することを要求することでさらに強化された。
実験結果は, 訓練段階と展開段階の両方において定量的尺度と質的記述を用いて報告された。
関連論文リスト
- Learning Manipulation Tasks in Dynamic and Shared 3D Spaces [2.4892784882130132]
自動ピック・アンド・プレイス操作の学習は、協調的な自律システムを導入することで効率的に行うことができる。
本稿では,多カテゴリー項目の配置課題を学習するための深層強化学習戦略を提案する。
論文 参考訳(メタデータ) (2024-04-26T19:40:19Z) - Multi-Agent Deep Reinforcement Learning for Cooperative and Competitive
Autonomous Vehicles using AutoDRIVE Ecosystem [1.1893676124374688]
我々は、ニジェールとF1TENTHの物理的に正確でグラフィカルなデジタル双対を開発するために、AutoDRIVE Ecosystemを導入する。
まず,複数エージェントの学習環境だけでなく,限られた状態情報を相互に共有する一組の協調車両(Nigel)を用いた交差点問題について検討する。
次に、異なる車両群(F1TENTH)を用いて、個別のポリシーアプローチを用いたマルチエージェント学習環境において、対向的なヘッドツーヘッド自律レース問題を調査する。
論文 参考訳(メタデータ) (2023-09-18T02:43:59Z) - Latent Exploration for Reinforcement Learning [87.42776741119653]
強化学習では、エージェントは環境を探索し、相互作用することでポリシーを学ぶ。
LATent TIme-Correlated Exploration (Lattice)を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:40:43Z) - Safe Multi-agent Learning via Trapping Regions [89.24858306636816]
我々は、動的システムの定性理論から知られているトラップ領域の概念を適用し、分散学習のための共同戦略空間に安全セットを作成する。
本稿では,既知の学習力学を持つシステムにおいて,候補がトラップ領域を形成することを検証するための二分分割アルゴリズムと,学習力学が未知のシナリオに対するサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-27T14:47:52Z) - CLAS: Coordinating Multi-Robot Manipulation with Central Latent Action
Spaces [9.578169216444813]
本稿では,異なるエージェント間で共有される学習された潜在行動空間を通じて,マルチロボット操作を協調する手法を提案する。
シミュレーションされたマルチロボット操作タスクにおいて本手法を検証し,サンプル効率と学習性能の観点から,従来のベースラインよりも改善したことを示す。
論文 参考訳(メタデータ) (2022-11-28T23:20:47Z) - Leveraging Sequentiality in Reinforcement Learning from a Single
Demonstration [68.94506047556412]
本稿では,複雑なロボットタスクの制御ポリシーを1つの実演で学習するために,シーケンシャルなバイアスを活用することを提案する。
本研究は, ヒューマノイド移動やスタンドアップなど, 模擬課題のいくつかを, 前例のないサンプル効率で解くことができることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:28:40Z) - Inferring Versatile Behavior from Demonstrations by Matching Geometric
Descriptors [72.62423312645953]
人間は直感的にタスクを多目的に解決し、軌道に基づく計画や個々のステップの行動を変化させる。
現在のImitation Learningアルゴリズムは、通常、単調な専門家によるデモンストレーションのみを考慮し、状態アクションベースの設定で行動する。
代わりに、移動プリミティブの混合と分布マッチングの目的を組み合わせることで、専門家の行動と汎用性にマッチする多目的行動を学ぶ。
論文 参考訳(メタデータ) (2022-10-17T16:42:59Z) - Multi-Task Conditional Imitation Learning for Autonomous Navigation at
Crowded Intersections [4.961474432432092]
歩行者との対話を必要とする混雑した交差点での自律ナビゲーションに重点を置いている。
横方向と縦方向の両方の制御タスクに適応するために,マルチタスク条件付き模倣学習フレームワークを提案する。
IntersectNavと呼ばれる新しいベンチマークが開発され、人間のデモが提供されている。
論文 参考訳(メタデータ) (2022-02-21T11:13:59Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。