論文の概要: Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together
- arxiv url: http://arxiv.org/abs/2202.01493v1
- Date: Thu, 3 Feb 2022 10:04:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 15:17:36.768363
- Title: Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together
- Title(参考訳): 空間コンピューティングと直感的インタラクション: 複合現実とロボティクスの融合
- Authors: Jeffrey Delmerico, Roi Poranne, Federica Bogo, Helen Oleynikova, Eric
Vollenweider, Stelian Coros, Juan Nieto, Marc Pollefeys
- Abstract要約: 本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
- 参考スコア(独自算出の注目度): 68.44697646919515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatial computing -- the ability of devices to be aware of their surroundings
and to represent this digitally -- offers novel capabilities in human-robot
interaction. In particular, the combination of spatial computing and egocentric
sensing on mixed reality devices enables them to capture and understand human
actions and translate these to actions with spatial meaning, which offers
exciting new possibilities for collaboration between humans and robots. This
paper presents several human-robot systems that utilize these capabilities to
enable novel robot use cases: mission planning for inspection, gesture-based
control, and immersive teleoperation. These works demonstrate the power of
mixed reality as a tool for human-robot interaction, and the potential of
spatial computing and mixed reality to drive the future of human-robot
interaction.
- Abstract(参考訳): 空間コンピューティングは、デバイスが周囲を認識でき、それをデジタル的に表現できる能力であり、人間とロボットの相互作用において新しい能力を提供する。
特に、空間コンピューティングとエゴセントリックセンシングの組み合わせは、人間の行動のキャプチャと理解を可能にし、それらを空間的意味のアクションに変換することで、人間とロボットのコラボレーションのためのエキサイティングな新しい可能性をもたらす。
本稿では,ロボットの新たなユースケースを実現するために,これらの機能を利用するロボットシステムについて述べる。
これらの研究は、人間とロボットの相互作用のツールとしての混合現実のパワーと、人間とロボットの相互作用の未来を駆動する空間コンピューティングと混合現実の可能性を示す。
関連論文リスト
- Interação entre robôs humanoides: desenvolvendo a colaboração e comunicação autônoma [0.0]
本研究は,ヒューマノイドロボットNAOとPepperの相互作用について検討し,教育環境におけるその可能性を強調した。
プログラムされた一連のインタラクションを通じて、ロボットは自律的に行動のコミュニケーションとコーディネートを行う能力を実証した。
論文 参考訳(メタデータ) (2024-10-22T21:55:54Z) - HARMONIC: Cognitive and Control Collaboration in Human-Robotic Teams [0.0]
メタ認知,自然言語コミュニケーション,説明可能性を備えたロボットチームにおいて,ロボットの認知戦略を実証する。
このシステムは、認知と制御機能を柔軟に統合するHARMONICアーキテクチャを使って実現されている。
論文 参考訳(メタデータ) (2024-09-26T16:48:21Z) - Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Generalizable Human-Robot Collaborative Assembly Using Imitation
Learning and Force Control [17.270360447188196]
本稿では,実演から学び,ポーズ推定を用いたロボット協調組立システムを提案する。
提案システムでは, ロボット組立シナリオにおいて, 物理的6DoFマニピュレータを用いて実験を行った。
論文 参考訳(メタデータ) (2022-12-02T20:35:55Z) - Semantic-Aware Environment Perception for Mobile Human-Robot Interaction [2.309914459672557]
本稿では,移動ロボットのための視覚ベースシステムについて,アプリオリ知識を付加せずにセマンティック・アウェア環境を実現する。
実世界のアプリケーションで我々の手法をテストすることができる移動型ヒューマノイドロボットにシステムをデプロイする。
論文 参考訳(メタデータ) (2022-11-07T08:49:45Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。