論文の概要: Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots
- arxiv url: http://arxiv.org/abs/2310.13724v1
- Date: Thu, 19 Oct 2023 17:29:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 05:48:29.691086
- Title: Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots
- Title(参考訳): Habitat 3.0:人間、アバター、ロボットのためのコ・ハビタット
- Authors: Xavier Puig, Eric Undersander, Andrew Szot, Mikael Dallaire Cote,
Tsung-Yen Yang, Ruslan Partsey, Ruta Desai, Alexander William Clegg, Michal
Hlavac, So Yeon Min, Vladim\'ir Vondru\v{s}, Theophile Gervet, Vincent-Pierre
Berges, John M. Turner, Oleksandr Maksymets, Zsolt Kira, Mrinal Kalakrishnan,
Jitendra Malik, Devendra Singh Chaplot, Unnat Jain, Dhruv Batra, Akshara Rai,
Roozbeh Mottaghi
- Abstract要約: Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
- 参考スコア(独自算出の注目度): 119.55240471433302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Habitat 3.0: a simulation platform for studying collaborative
human-robot tasks in home environments. Habitat 3.0 offers contributions across
three dimensions: (1) Accurate humanoid simulation: addressing challenges in
modeling complex deformable bodies and diversity in appearance and motion, all
while ensuring high simulation speed. (2) Human-in-the-loop infrastructure:
enabling real human interaction with simulated robots via mouse/keyboard or a
VR interface, facilitating evaluation of robot policies with human input. (3)
Collaborative tasks: studying two collaborative tasks, Social Navigation and
Social Rearrangement. Social Navigation investigates a robot's ability to
locate and follow humanoid avatars in unseen environments, whereas Social
Rearrangement addresses collaboration between a humanoid and robot while
rearranging a scene. These contributions allow us to study end-to-end learned
and heuristic baselines for human-robot collaboration in-depth, as well as
evaluate them with humans in the loop. Our experiments demonstrate that learned
robot policies lead to efficient task completion when collaborating with unseen
humanoid agents and human partners that might exhibit behaviors that the robot
has not seen before. Additionally, we observe emergent behaviors during
collaborative task execution, such as the robot yielding space when obstructing
a humanoid agent, thereby allowing the effective completion of the task by the
humanoid agent. Furthermore, our experiments using the human-in-the-loop tool
demonstrate that our automated evaluation with humanoids can provide an
indication of the relative ordering of different policies when evaluated with
real human collaborators. Habitat 3.0 unlocks interesting new features in
simulators for Embodied AI, and we hope it paves the way for a new frontier of
embodied human-AI interaction capabilities.
- Abstract(参考訳): 本研究では,家庭環境における協調ロボットタスクのシミュレーションプラットフォームHabitat 3.0を提案する。
habitat 3.0は、3次元にわたる貢献を提供している: (1) 正確なヒューマノイドシミュレーション: 複雑な変形可能な物体のモデリングにおける課題と、外観と動きの多様性に対処する。
2)ヒューマン・イン・ザ・ループ(Human-in-the-loop)インフラ:マウス/キーボードまたはVRインターフェースを介してシミュレーションロボットとのリアルなヒューマンインタラクションを可能にし、ロボットポリシーと人間の入力の評価を容易にする。
(3)共同作業:ソーシャルナビゲーションとソーシャルリアレンジメントという2つの共同作業の研究。
ソーシャルナビゲーションは、見えない環境でヒューマノイドアバターを発見・追跡するロボットの能力を調査する一方、ソーシャルリアレンジメントはシーンを再構成しながらヒューマノイドとロボットの協調に対処する。
これらの貢献により、人間とロボットのコラボレーションを深く研究するエンドツーエンドの学習とヒューリスティックなベースラインの研究や、ループ内の人間による評価が可能になる。
実験では,ロボットがこれまで見たことのない行動を呈する可能性のある,未発見のヒューマノイドエージェントや人間パートナーとのコラボレーションにおいて,学習したロボットの方針が効率的なタスク完了に繋がることを示す。
さらに,ロボットがヒューマノイドエージェントを妨害する際の空間を譲るなど,協調作業実行中の創発的挙動を観察することにより,ヒューマノイドエージェントによるタスクの効果的完了を可能にする。
さらに,本ツールを用いた実験により,人体を用いた自動評価により,実際の人体協力者による評価において,異なる政策の相対順序を示すことができることが示された。
habitat 3.0は、具体化されたaiのためのシミュレータの興味深い新機能を解き放ち、具体化された人間とaiのインタラクション機能の新しいフロンティアへの道を開くことを願っている。
関連論文リスト
- HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - SynH2R: Synthesizing Hand-Object Motions for Learning Human-to-Robot
Handovers [37.49601724575655]
視覚に基づく人間とロボットのハンドオーバは、人間とロボットのインタラクションにおいて重要かつ困難なタスクである。
本稿では,ロボットの訓練に適した人間のつかみ動作を生成するためのフレームワークを提案する。
これにより、以前の作業よりも100倍多くのオブジェクトで、総合的なトレーニングとテストデータを生成することができます。
論文 参考訳(メタデータ) (2023-11-09T18:57:02Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - CoGrasp: 6-DoF Grasp Generation for Human-Robot Collaboration [0.0]
そこで我々は,人間を意識したロボットグリップを生成する,CoGraspと呼ばれる新しいディープニューラルネットワーク方式を提案する。
実際のロボット実験では,安定グリップの生成において約88%の成功率を達成した。
我々のアプローチは、安全で自然で社会的に認識された人間ロボットオブジェクトのコグラスピング体験を可能にします。
論文 参考訳(メタデータ) (2022-10-06T19:23:25Z) - Open-VICO: An Open-Source Gazebo Toolkit for Multi-Camera-based Skeleton
Tracking in Human-Robot Collaboration [0.0]
この研究は、ガゼボで仮想人間モデルを統合するためのオープンソースツールキットであるOpen-VICOを提示する。
特に、Open-VICOは、現実的な人間のキネマティックモデル、マルチカメラビジョン設定、そして人間の追跡技術と同じシミュレーション環境で組み合わせることができる。
論文 参考訳(メタデータ) (2022-03-28T13:21:32Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。