論文の概要: We Choose to Go to Space: Agent-driven Human and Multi-Robot
Collaboration in Microgravity
- arxiv url: http://arxiv.org/abs/2402.14299v1
- Date: Thu, 22 Feb 2024 05:32:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 16:23:31.504693
- Title: We Choose to Go to Space: Agent-driven Human and Multi-Robot
Collaboration in Microgravity
- Title(参考訳): 宇宙に行く:微小重力下でのエージェント駆動型人間とマルチロボットのコラボレーション
- Authors: Miao Xin, Zhongrui You, Zihan Zhang, Taoran Jiang, Tingjia Xu, Haotian
Liang, Guojing Ge, Yuchen Ji, Shentong Mo, Jian Cheng
- Abstract要約: 将来の宇宙探査には人間とロボットが協力する必要がある。
本研究では,微小重力環境下での人間とロボットの協調戦略を学習するSpaceAgents-1を提案する。
- 参考スコア(独自算出の注目度): 28.64243893838686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present SpaceAgents-1, a system for learning human and multi-robot
collaboration (HMRC) strategies under microgravity conditions. Future space
exploration requires humans to work together with robots. However, acquiring
proficient robot skills and adept collaboration under microgravity conditions
poses significant challenges within ground laboratories. To address this issue,
we develop a microgravity simulation environment and present three typical
configurations of intra-cabin robots. We propose a hierarchical heterogeneous
multi-agent collaboration architecture: guided by foundation models, a
Decision-Making Agent serves as a task planner for human-robot collaboration,
while individual Skill-Expert Agents manage the embodied control of robots.
This mechanism empowers the SpaceAgents-1 system to execute a range of
intricate long-horizon HMRC tasks.
- Abstract(参考訳): 微小重力環境下でのヒトとマルチロボットの協調(HMRC)戦略を学習するSpaceAgents-1を提案する。
将来の宇宙探査では、人間はロボットと協力する必要がある。
しかし, 微小重力環境下では, 熟練したロボットのスキルを身につけることが, 地上実験室において大きな課題となっている。
この問題に対処するため,我々は微小重力シミュレーション環境を開発し,キャビン内ロボットの3つの典型的な構成を示す。
本研究では,ロボットの具体的制御を個別のスキル・エキスパート・エージェントが管理するのに対し,意思決定エージェントはロボット協調のためのタスクプランナーとして機能する,階層的なヘテロジニアスな多エージェント協調アーキテクチャを提案する。
この機構はSpaceAgents-1システムに様々な複雑な長距離HMRCタスクを実行する権限を与える。
関連論文リスト
- $\textbf{EMOS}$: $\textbf{E}$mbodiment-aware Heterogeneous $\textbf{M}$ulti-robot $\textbf{O}$perating $\textbf{S}$ystem with LLM Agents [33.77674812074215]
異種ロボット間の効果的な協調を実現するための新しいマルチエージェントフレームワークを提案する。
エージェントがロボットURDFファイルを理解し、ロボットキネマティクスツールを呼び出し、その物理能力の記述を生成する。
Habitat-MASベンチマークは、マルチエージェントフレームワークがエンボディメント認識推論を必要とするタスクをどのように処理するかを評価するように設計されている。
論文 参考訳(メタデータ) (2024-10-30T03:20:01Z) - HARMONIC: Cognitive and Control Collaboration in Human-Robotic Teams [0.0]
メタ認知,自然言語コミュニケーション,説明可能性を備えたロボットチームにおいて,ロボットの認知戦略を実証する。
このシステムは、認知と制御機能を柔軟に統合するHARMONICアーキテクチャを使って実現されている。
論文 参考訳(メタデータ) (2024-09-26T16:48:21Z) - COHERENT: Collaboration of Heterogeneous Multi-Robot System with Large Language Models [49.24666980374751]
COHERENTは、異種マルチロボットシステムの協調のための新しいLCMベースのタスク計画フレームワークである。
提案-実行-フィードバック-調整機構は,個々のロボットに対して動作を分解・割り当てするように設計されている。
実験の結果,我々の研究は,成功率と実行効率の面で,従来の手法をはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2024-09-23T15:53:41Z) - Redundancy-aware Action Spaces for Robot Learning [17.961314026588987]
共同空間制御とタスク空間制御は、ロボット学習文学におけるロボットアームを制御する2つの主要な動作モードである。
本研究では,ロボット操作のためのアクション空間の設計基準を分析し,新しいアクション空間の定式化であるER(End-effector Redundancy)を導入する。
本稿では,ERAngle (ERA) とERJoint (ERJ) の2つの実装について述べる。
論文 参考訳(メタデータ) (2024-06-06T15:08:41Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - RoboGen: Towards Unleashing Infinite Data for Automated Robot Learning via Generative Simulation [68.70755196744533]
RoboGenはジェネレーティブなロボットエージェントで、ジェネレーティブなシミュレーションを通じて、さまざまなロボットのスキルを自動的に学習する。
我々の研究は、大規模モデルに埋め込まれた広範囲で多目的な知識を抽出し、それらをロボット工学の分野に移す試みである。
論文 参考訳(メタデータ) (2023-11-02T17:59:21Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Co-Evolution of Multi-Robot Controllers and Task Cues for Off-World Open
Pit Mining [0.6091702876917281]
本稿では,マルチロボット掘削とサイト準備のシナリオにおいて,スケーラブルなコントローラを開発するための新しい手法を提案する。
コントローラは空白のスレートから始まり、人間による操作スクリプトや、掘削機の運動学や力学の詳細なモデリングを必要としない。
本稿では,テンプレートとタスクキューを用いてグループパフォーマンスをさらに向上し,アンタゴニティを最小化する方法について検討する。
論文 参考訳(メタデータ) (2020-09-19T03:13:28Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z) - Proficiency Constrained Multi-Agent Reinforcement Learning for
Environment-Adaptive Multi UAV-UGV Teaming [2.745883395089022]
空中と地上の混成ロボットチームは、災害救助、社会保障、精密農業、軍事任務に広く利用されている。
そこで本研究では,Mix-RL (Mix-RL) を用いた地上・空中協調学習手法を開発した。
Mix-RLは、タスク要件と環境条件へのロボット機能の適用を認識しながら、ロボット機能を利用する。
論文 参考訳(メタデータ) (2020-02-10T16:19:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。