論文の概要: HARMONIC: Cognitive and Control Collaboration in Human-Robotic Teams
- arxiv url: http://arxiv.org/abs/2409.18047v1
- Date: Thu, 26 Sep 2024 16:48:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 22:26:48.120346
- Title: HARMONIC: Cognitive and Control Collaboration in Human-Robotic Teams
- Title(参考訳): HARMONIC:人間-ロボットチームにおける認知と制御のコラボレーション
- Authors: Sanjay Oruganti, Sergei Nirenburg, Marjorie McShane, Jesse English, Michael K. Roberts, Christian Arndt,
- Abstract要約: メタ認知,自然言語コミュニケーション,説明可能性を備えたロボットチームにおいて,ロボットの認知戦略を実証する。
このシステムは、認知と制御機能を柔軟に統合するHARMONICアーキテクチャを使って実現されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a novel approach to multi-robot planning and collaboration. We demonstrate a cognitive strategy for robots in human-robot teams that incorporates metacognition, natural language communication, and explainability. The system is embodied using the HARMONIC architecture that flexibly integrates cognitive and control capabilities across the team. We evaluate our approach through simulation experiments involving a joint search task by a team of heterogeneous robots (a UGV and a drone) and a human. We detail the system's handling of complex, real-world scenarios, effective action coordination between robots with different capabilities, and natural human-robot communication. This work demonstrates that the robots' ability to reason about plans, goals, and attitudes, and to provide explanations for actions and decisions are essential prerequisites for realistic human-robot teaming.
- Abstract(参考訳): 本稿では,マルチロボット計画と協調のための新しいアプローチを提案する。
メタ認知,自然言語コミュニケーション,説明可能性を備えたロボットチームにおいて,ロボットの認知戦略を実証する。
このシステムは、チーム全体で認知と制御機能を柔軟に統合するHARMONICアーキテクチャを使って実現されている。
異種ロボット(UGVとドローン)と人間による共同探索作業を含むシミュレーション実験により,本手法の評価を行った。
複雑で現実的なシナリオの処理、異なる能力を持つロボット間の効果的なアクション調整、自然な人間とロボットのコミュニケーションについて詳述する。
この研究は、ロボットが計画、目標、態度を判断し、行動や決定を説明する能力が、現実的な人間ロボットチームにとって必須の前提であることを示している。
関連論文リスト
- HARMONIC: A Framework for Explanatory Cognitive Robots [0.0]
本稿では,認知ロボットを実現するためのフレームワークであるHARMONICを紹介する。
このフレームワークは、高レベルの意思決定のための戦略的(認知的)層と低レベルの制御と実行のための戦術的(ロボット)層との相互運用性をサポートする。
論文 参考訳(メタデータ) (2024-09-26T16:42:13Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Generalizable Human-Robot Collaborative Assembly Using Imitation
Learning and Force Control [17.270360447188196]
本稿では,実演から学び,ポーズ推定を用いたロボット協調組立システムを提案する。
提案システムでは, ロボット組立シナリオにおいて, 物理的6DoFマニピュレータを用いて実験を行った。
論文 参考訳(メタデータ) (2022-12-02T20:35:55Z) - CoGrasp: 6-DoF Grasp Generation for Human-Robot Collaboration [0.0]
そこで我々は,人間を意識したロボットグリップを生成する,CoGraspと呼ばれる新しいディープニューラルネットワーク方式を提案する。
実際のロボット実験では,安定グリップの生成において約88%の成功率を達成した。
我々のアプローチは、安全で自然で社会的に認識された人間ロボットオブジェクトのコグラスピング体験を可能にします。
論文 参考訳(メタデータ) (2022-10-06T19:23:25Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。