論文の概要: Mimicking-Bench: A Benchmark for Generalizable Humanoid-Scene Interaction Learning via Human Mimicking
- arxiv url: http://arxiv.org/abs/2412.17730v1
- Date: Mon, 23 Dec 2024 17:27:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:56:33.071517
- Title: Mimicking-Bench: A Benchmark for Generalizable Humanoid-Scene Interaction Learning via Human Mimicking
- Title(参考訳): Mimicking-Bench:ヒトミミキングによる汎用型ヒューマノイドシーンインタラクション学習のためのベンチマーク
- Authors: Yun Liu, Bowen Yang, Licheng Zhong, He Wang, Li Yi,
- Abstract要約: 人間のデータを模倣して3Dシーンと対話するヒューマノイドロボットの一般的なスキルを学ぶことは、重要な研究課題である。
既存の方法論とベンチマークは、手作業による小規模なデモによって制約される。
一般ヒューマノイド・シーンインタラクション学習のための総合的なベンチマークであるMimicking-Benchを紹介する。
- 参考スコア(独自算出の注目度): 31.74849688668844
- License:
- Abstract: Learning generic skills for humanoid robots interacting with 3D scenes by mimicking human data is a key research challenge with significant implications for robotics and real-world applications. However, existing methodologies and benchmarks are constrained by the use of small-scale, manually collected demonstrations, lacking the general dataset and benchmark support necessary to explore scene geometry generalization effectively. To address this gap, we introduce Mimicking-Bench, the first comprehensive benchmark designed for generalizable humanoid-scene interaction learning through mimicking large-scale human animation references. Mimicking-Bench includes six household full-body humanoid-scene interaction tasks, covering 11K diverse object shapes, along with 20K synthetic and 3K real-world human interaction skill references. We construct a complete humanoid skill learning pipeline and benchmark approaches for motion retargeting, motion tracking, imitation learning, and their various combinations. Extensive experiments highlight the value of human mimicking for skill learning, revealing key challenges and research directions.
- Abstract(参考訳): 人間のデータを模倣して3Dシーンと対話するヒューマノイドロボットの一般的なスキルを学ぶことは、ロボット工学や現実世界の応用に重要な意味を持つ重要な研究課題である。
しかし、既存の手法やベンチマークは、小規模な手作業による手作業によるデモの使用によって制約されており、シーン幾何学の一般化を効果的に探求するために必要な一般的なデータセットやベンチマークサポートが欠如している。
このギャップに対処するため,大規模なアニメーション参照を模倣して,汎用的なヒューマノイド・シーンインタラクション学習のために設計された,最初の総合ベンチマークであるMimicking-Benchを紹介した。
Mimicking-Benchには6つのファミリーフルボディのヒューマノイドとシーンのインタラクションタスクが含まれており、20Kの人工的および3Kの現実世界のヒューマンインタラクションスキル参照とともに11Kの多様なオブジェクト形状をカバーしている。
本研究では,ヒューマノイドスキル学習パイプラインの構築と,モーションリターゲティング,モーショントラッキング,模倣学習,およびそれらの組み合わせに対するベンチマークアプローチについて述べる。
大規模な実験は、スキル学習のための人間の模倣の価値を強調し、重要な課題と研究の方向性を明らかにする。
関連論文リスト
- Inter-X: Towards Versatile Human-Human Interaction Analysis [100.254438708001]
正確な身体の動きと多様な相互作用パターンを持つデータセットであるInter-Xを提案する。
データセットは、1Kの相互作用シーケンスと8.1Mフレーム以上を含む。
また、Inter-Xには34K以上の微粒な人間のテキスト記述の多義アノテーションも備えています。
論文 参考訳(メタデータ) (2023-12-26T13:36:05Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Human-centric Scene Understanding for 3D Large-scale Scenarios [52.12727427303162]
本稿では,HuCenLifeという,人間中心のシーン理解のための大規模マルチモーダルデータセットを提案する。
私たちのHuCenLifeは、セグメンテーション、検出、アクション認識など、多くの3D認識タスクに役立ちます。
論文 参考訳(メタデータ) (2023-07-26T08:40:46Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - ManiSkill: Learning-from-Demonstrations Benchmark for Generalizable
Manipulation Skills [27.214053107733186]
汎用オブジェクト操作スキルを学習するためのSAPIENマニピュレーションスキルベンチマーク(ManiSkill)を提案する。
ManiSkillは、リッチで多様な調音されたオブジェクトセットを利用することで、オブジェクトレベルのバリエーションをサポートする。
ManiSkillは、ロボットの学習コミュニティに、汎用的なオブジェクト操作スキルの学習を奨励する。
論文 参考訳(メタデータ) (2021-07-30T08:20:22Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z) - Simultaneous Learning from Human Pose and Object Cues for Real-Time
Activity Recognition [11.290467061493189]
本研究では,人間の行動にかかわるポーズや物体の観察から同時に学習することで,人間の行動認識に対する新しいアプローチを提案する。
提案手法は従来の手法より優れ,104Hzの処理速度で人間の行動認識のリアルタイム性能を得る。
論文 参考訳(メタデータ) (2020-03-26T22:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。