論文の概要: Spatial Intention Maps for Multi-Agent Mobile Manipulation
- arxiv url: http://arxiv.org/abs/2103.12710v1
- Date: Tue, 23 Mar 2021 17:31:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 14:11:43.201545
- Title: Spatial Intention Maps for Multi-Agent Mobile Manipulation
- Title(参考訳): マルチエージェント移動操作のための空間意図マップ
- Authors: Jimmy Wu, Xingyuan Sun, Andy Zeng, Shuran Song, Szymon Rusinkiewicz,
Thomas Funkhouser
- Abstract要約: 視覚に基づく深層強化学習のための新しい意図表現である空間意図マップを提示する。
この表現では、各エージェントの意図は他のエージェントに提供され、視覚的観察と一致するオーバーヘッド2Dマップにレンダリングされます。
実験により,空間意図マップを組み込むことで,異なる移動操作タスクのパフォーマンスが向上し,協調行動が著しく向上することが示された。
- 参考スコア(独自算出の注目度): 30.016012417572707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to communicate intention enables decentralized multi-agent robots
to collaborate while performing physical tasks. In this work, we present
spatial intention maps, a new intention representation for multi-agent
vision-based deep reinforcement learning that improves coordination between
decentralized mobile manipulators. In this representation, each agent's
intention is provided to other agents, and rendered into an overhead 2D map
aligned with visual observations. This synergizes with the recently proposed
spatial action maps framework, in which state and action representations are
spatially aligned, providing inductive biases that encourage emergent
cooperative behaviors requiring spatial coordination, such as passing objects
to each other or avoiding collisions. Experiments across a variety of
multi-agent environments, including heterogeneous robot teams with different
abilities (lifting, pushing, or throwing), show that incorporating spatial
intention maps improves performance for different mobile manipulation tasks
while significantly enhancing cooperative behaviors.
- Abstract(参考訳): 意図を伝える能力により、分散されたマルチエージェントロボットは、物理的タスクを実行しながら協調することができる。
本研究では,分散移動マニピュレータ間の協調性を改善する多エージェント視覚に基づく深層強化学習のための空間意図マップを提案する。
この表現では、各エージェントの意図は他のエージェントに提供され、視覚的な観察と一致したオーバーヘッド2Dマップに描画される。
これは、状態と行動表現が空間的に整合している、最近提案された空間的行動マップフレームワークと相乗効果があり、物体を互いに渡したり衝突を避けたりといった空間的協調を必要とする創発的協調行動を促進する誘導バイアスを与える。
多様な能力を持つ異種ロボットチーム(リフティング、プッシュ、投球)を含む様々なマルチエージェント環境における実験により、空間意図マップを組み込むことで、異なる移動操作タスクのパフォーマンスが向上し、協調行動が著しく向上することが示された。
関連論文リスト
- Scaling Large-Language-Model-based Multi-Agent Collaboration [75.5241464256688]
大規模言語モデルによるエージェントのパイオニア化は、マルチエージェントコラボレーションの設計パターンを暗示している。
神経スケーリング法則に触発された本研究では,マルチエージェント協調におけるエージェントの増加に類似の原理が適用されるかを検討する。
論文 参考訳(メタデータ) (2024-06-11T11:02:04Z) - SPIN: Simultaneous Perception, Interaction and Navigation [33.408010508592824]
本稿では、アクティブな視覚システムを用いて、その環境を意識的に知覚し、反応するリアクティブなモバイル操作フレームワークを提案する。
人間は体全体と眼の調整を利用するのと同じように、移動と視力を利用する移動マニピュレータを開発します。
論文 参考訳(メタデータ) (2024-05-13T17:59:36Z) - Learning Manipulation Tasks in Dynamic and Shared 3D Spaces [2.4892784882130132]
自動ピック・アンド・プレイス操作の学習は、協調的な自律システムを導入することで効率的に行うことができる。
本稿では,多カテゴリー項目の配置課題を学習するための深層強化学習戦略を提案する。
論文 参考訳(メタデータ) (2024-04-26T19:40:19Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - CLAS: Coordinating Multi-Robot Manipulation with Central Latent Action
Spaces [9.578169216444813]
本稿では,異なるエージェント間で共有される学習された潜在行動空間を通じて,マルチロボット操作を協調する手法を提案する。
シミュレーションされたマルチロボット操作タスクにおいて本手法を検証し,サンプル効率と学習性能の観点から,従来のベースラインよりも改善したことを示す。
論文 参考訳(メタデータ) (2022-11-28T23:20:47Z) - Rethinking Trajectory Prediction via "Team Game" [118.59480535826094]
本稿では,対話型グループコンセンサスの概念を明示的に導入した,マルチエージェント軌道予測の新しい定式化について述べる。
チームスポーツと歩行者の2つのマルチエージェント設定において,提案手法は既存手法と比較して常に優れた性能を達成している。
論文 参考訳(メタデータ) (2022-10-17T07:16:44Z) - Unlimited Neighborhood Interaction for Heterogeneous Trajectory
Prediction [97.40338982628094]
マルチプライカテゴリにおける異種エージェントの軌跡を予測できる,シンプルで効果的な非境界相互作用ネットワーク (UNIN) を提案する。
具体的には、提案した無制限近傍相互作用モジュールは、相互作用に関与するすべてのエージェントの融合特徴を同時に生成する。
階層型グラフアテンションモジュールを提案し,カテゴリ間相互作用とエージェント間相互作用を求める。
論文 参考訳(メタデータ) (2021-07-31T13:36:04Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Decentralized Motion Planning for Multi-Robot Navigation using Deep
Reinforcement Learning [0.41998444721319217]
本研究は、深層強化学習を用いたマルチロボットナビゲーションの課題に対処するための分散型モーションプランニングフレームワークを提案する。
共通かつ共有的な政策学習による分散的な行動計画の概念が採用され、このアプローチの堅牢なトレーニングとテストが可能となった。
論文 参考訳(メタデータ) (2020-11-11T07:35:21Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z) - Implicit Multiagent Coordination at Unsignalized Intersections via
Multimodal Inference Enabled by Topological Braids [15.024091680310109]
信号のない交差点における合理的な非コミュニケーションエージェント間のナビゲーションに焦点をあてる。
我々はトポロジカルブレイドの形式主義を用いてコンパクトで解釈可能な方法で共同行動のモードを表現する。
我々は,新たなマルチエージェント動作のモードにおける不確実性を低減するための行動を生成する分散計画アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-04-10T19:01:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。