論文の概要: Spatial Intention Maps for Multi-Agent Mobile Manipulation
- arxiv url: http://arxiv.org/abs/2103.12710v1
- Date: Tue, 23 Mar 2021 17:31:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 14:11:43.201545
- Title: Spatial Intention Maps for Multi-Agent Mobile Manipulation
- Title(参考訳): マルチエージェント移動操作のための空間意図マップ
- Authors: Jimmy Wu, Xingyuan Sun, Andy Zeng, Shuran Song, Szymon Rusinkiewicz,
Thomas Funkhouser
- Abstract要約: 視覚に基づく深層強化学習のための新しい意図表現である空間意図マップを提示する。
この表現では、各エージェントの意図は他のエージェントに提供され、視覚的観察と一致するオーバーヘッド2Dマップにレンダリングされます。
実験により,空間意図マップを組み込むことで,異なる移動操作タスクのパフォーマンスが向上し,協調行動が著しく向上することが示された。
- 参考スコア(独自算出の注目度): 30.016012417572707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to communicate intention enables decentralized multi-agent robots
to collaborate while performing physical tasks. In this work, we present
spatial intention maps, a new intention representation for multi-agent
vision-based deep reinforcement learning that improves coordination between
decentralized mobile manipulators. In this representation, each agent's
intention is provided to other agents, and rendered into an overhead 2D map
aligned with visual observations. This synergizes with the recently proposed
spatial action maps framework, in which state and action representations are
spatially aligned, providing inductive biases that encourage emergent
cooperative behaviors requiring spatial coordination, such as passing objects
to each other or avoiding collisions. Experiments across a variety of
multi-agent environments, including heterogeneous robot teams with different
abilities (lifting, pushing, or throwing), show that incorporating spatial
intention maps improves performance for different mobile manipulation tasks
while significantly enhancing cooperative behaviors.
- Abstract(参考訳): 意図を伝える能力により、分散されたマルチエージェントロボットは、物理的タスクを実行しながら協調することができる。
本研究では,分散移動マニピュレータ間の協調性を改善する多エージェント視覚に基づく深層強化学習のための空間意図マップを提案する。
この表現では、各エージェントの意図は他のエージェントに提供され、視覚的な観察と一致したオーバーヘッド2Dマップに描画される。
これは、状態と行動表現が空間的に整合している、最近提案された空間的行動マップフレームワークと相乗効果があり、物体を互いに渡したり衝突を避けたりといった空間的協調を必要とする創発的協調行動を促進する誘導バイアスを与える。
多様な能力を持つ異種ロボットチーム(リフティング、プッシュ、投球)を含む様々なマルチエージェント環境における実験により、空間意図マップを組み込むことで、異なる移動操作タスクのパフォーマンスが向上し、協調行動が著しく向上することが示された。
関連論文リスト
- Active Visual Localization for Multi-Agent Collaboration: A Data-Driven
Approach [51.75186763756072]
本研究は、視点変化の課題を克服するために、アクティブな視覚的ローカライゼーションをどのように利用できるかを検討する。
具体的には、与えられた場所における最適な視点を選択する問題に焦点をあてる。
その結果,既存の手法と比較して,データ駆動方式の方が優れた性能を示した。
論文 参考訳(メタデータ) (2023-10-04T08:18:30Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - CLAS: Coordinating Multi-Robot Manipulation with Central Latent Action
Spaces [9.578169216444813]
本稿では,異なるエージェント間で共有される学習された潜在行動空間を通じて,マルチロボット操作を協調する手法を提案する。
シミュレーションされたマルチロボット操作タスクにおいて本手法を検証し,サンプル効率と学習性能の観点から,従来のベースラインよりも改善したことを示す。
論文 参考訳(メタデータ) (2022-11-28T23:20:47Z) - Rethinking Trajectory Prediction via "Team Game" [118.59480535826094]
本稿では,対話型グループコンセンサスの概念を明示的に導入した,マルチエージェント軌道予測の新しい定式化について述べる。
チームスポーツと歩行者の2つのマルチエージェント設定において,提案手法は既存手法と比較して常に優れた性能を達成している。
論文 参考訳(メタデータ) (2022-10-17T07:16:44Z) - Learning Efficient Multi-Agent Cooperative Visual Exploration [18.42493808094464]
複数のエージェントによる視覚的屋内探索の課題を考察し、エージェントはできるだけ少ないステップで屋内全領域を探索する必要がある。
我々は、最先端の単一エージェントRLソリューションであるActive Neural SLAM(ANS)を、新しいRLベースのグローバルゴールプランナーであるSpatial Coordination Planner(SCP)を導入してマルチエージェント設定に拡張する。
SCPは、各エージェントの空間情報をエンドツーエンドに活用し、探索効率の高い異なる空間目標に向けて効果的にエージェントを誘導する。
論文 参考訳(メタデータ) (2021-10-12T04:48:10Z) - Unlimited Neighborhood Interaction for Heterogeneous Trajectory
Prediction [97.40338982628094]
マルチプライカテゴリにおける異種エージェントの軌跡を予測できる,シンプルで効果的な非境界相互作用ネットワーク (UNIN) を提案する。
具体的には、提案した無制限近傍相互作用モジュールは、相互作用に関与するすべてのエージェントの融合特徴を同時に生成する。
階層型グラフアテンションモジュールを提案し,カテゴリ間相互作用とエージェント間相互作用を求める。
論文 参考訳(メタデータ) (2021-07-31T13:36:04Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Decentralized Motion Planning for Multi-Robot Navigation using Deep
Reinforcement Learning [0.41998444721319217]
本研究は、深層強化学習を用いたマルチロボットナビゲーションの課題に対処するための分散型モーションプランニングフレームワークを提案する。
共通かつ共有的な政策学習による分散的な行動計画の概念が採用され、このアプローチの堅牢なトレーニングとテストが可能となった。
論文 参考訳(メタデータ) (2020-11-11T07:35:21Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z) - Implicit Multiagent Coordination at Unsignalized Intersections via
Multimodal Inference Enabled by Topological Braids [15.024091680310109]
信号のない交差点における合理的な非コミュニケーションエージェント間のナビゲーションに焦点をあてる。
我々はトポロジカルブレイドの形式主義を用いてコンパクトで解釈可能な方法で共同行動のモードを表現する。
我々は,新たなマルチエージェント動作のモードにおける不確実性を低減するための行動を生成する分散計画アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-04-10T19:01:29Z) - A Visual Communication Map for Multi-Agent Deep Reinforcement Learning [7.003240657279981]
マルチエージェント学習は、隠蔽された通信媒体を割り当てる上で大きな課題となる。
最近の研究は一般的に、エージェント間の通信を可能にするために、特殊なニューラルネットワークと強化学習を組み合わせる。
本稿では,多数のエージェントを扱うだけでなく,異種機能エージェント間の協調を可能にする,よりスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2020-02-27T02:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。