論文の概要: RHINO: Learning Real-Time Humanoid-Human-Object Interaction from Human Demonstrations
- arxiv url: http://arxiv.org/abs/2502.13134v1
- Date: Tue, 18 Feb 2025 18:56:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:05:19.934404
- Title: RHINO: Learning Real-Time Humanoid-Human-Object Interaction from Human Demonstrations
- Title(参考訳): RHINO:人間による実時間ヒューマノイド・ヒューマノイド・オブジェクトインタラクションの学習
- Authors: Jingxiao Chen, Xinyao Li, Jiahang Cao, Zhengbang Zhu, Wentao Dong, Minghuan Liu, Ying Wen, Yong Yu, Liqing Zhang, Weinan Zhang,
- Abstract要約: RHINOは一般のヒューマノイド-ヒト-オブジェクト相互作用フレームワークである。
リアクティブモーション、命令ベースの操作、安全性に関する統一的なビューを提供する。
1)リアルタイムな人間の行動から人間の意図を推定するハイレベルプランナー,2)予測された意図に基づく反応行動とオブジェクト操作のスキルを達成する低レベルコントローラである。
- 参考スコア(独自算出の注目度): 38.1742893736782
- License:
- Abstract: Humanoid robots have shown success in locomotion and manipulation. Despite these basic abilities, humanoids are still required to quickly understand human instructions and react based on human interaction signals to become valuable assistants in human daily life. Unfortunately, most existing works only focus on multi-stage interactions, treating each task separately, and neglecting real-time feedback. In this work, we aim to empower humanoid robots with real-time reaction abilities to achieve various tasks, allowing human to interrupt robots at any time, and making robots respond to humans immediately. To support such abilities, we propose a general humanoid-human-object interaction framework, named RHINO, i.e., Real-time Humanoid-human Interaction and Object manipulation. RHINO provides a unified view of reactive motion, instruction-based manipulation, and safety concerns, over multiple human signal modalities, such as languages, images, and motions. RHINO is a hierarchical learning framework, enabling humanoids to learn reaction skills from human-human-object demonstrations and teleoperation data. In particular, it decouples the interaction process into two levels: 1) a high-level planner inferring human intentions from real-time human behaviors; and 2) a low-level controller achieving reactive motion behaviors and object manipulation skills based on the predicted intentions. We evaluate the proposed framework on a real humanoid robot and demonstrate its effectiveness, flexibility, and safety in various scenarios.
- Abstract(参考訳): ヒューマノイドロボットは移動と操作に成功している。
これらの基本的な能力にもかかわらず、ヒューマノイドは人間の指示を素早く理解し、人間の相互作用信号に基づいて反応し、人間の日常生活において貴重なアシスタントとなる必要がある。
残念ながら、既存の作業のほとんどはマルチステージインタラクションにのみ焦点を合わせ、各タスクを別々に扱い、リアルタイムフィードバックを無視しています。
本研究は,人間型ロボットにリアルタイムの反応能力を持たせることで,様々なタスクを遂行し,ロボットをいつでも中断させ,ロボットを即座に人間に応答させることを目的としている。
このような能力をサポートするために,RHINO(Real-time Humanoid-Human Interaction and Object Operation, リアルタイムヒューマノイド・ヒューマンインタラクション・オブジェクト操作)という,汎用的なヒューマノイド・オブジェクトインタラクションフレームワークを提案する。
RHINOは、言語、画像、動きなど、複数の人間の信号モダリティに対して、リアクティブモーション、命令ベースの操作、安全性に関する統一されたビューを提供する。
RHINOは階層的な学習フレームワークであり、ヒューマノイドは人間-物体のデモンストレーションや遠隔操作データから反応スキルを学ぶことができる。
特に、相互作用プロセスを2つのレベルに分離する。
1) リアルタイムな人間の行動から人間の意図を推定する高レベルプランナー
2) 予測された意図に基づいて, 反応動作と物体操作能力を達成する低レベル制御器。
提案手法を実際のヒューマノイドロボット上で評価し,その有効性,柔軟性,安全性を様々なシナリオで示す。
関連論文リスト
- Imitation of human motion achieves natural head movements for humanoid robots in an active-speaker detection task [2.8220015774219567]
頭の動きは社会的人間と人間の相互作用に不可欠である。
そこで本研究では,直型ヒューマノイドロボットの頭部運動生成に生成型AIパイプラインを用いた。
その結果,会話中の話者を積極的に追跡しながら,人間の頭部の動きを自然に模倣することに成功した。
論文 参考訳(メタデータ) (2024-07-16T17:08:40Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - InteRACT: Transformer Models for Human Intent Prediction Conditioned on Robot Actions [7.574421886354134]
InteRACTアーキテクチャは、大規模な人間と人間のデータセットと小さな人間とロボットのデータセットの微細構造に関する条件付き意図予測モデルを事前訓練する。
実世界の協調的なロボット操作タスクについて評価し、条件付きモデルが様々な限界ベースラインよりも改善されていることを示す。
論文 参考訳(メタデータ) (2023-11-21T19:15:17Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。