論文の概要: DexCanvas: Bridging Human Demonstrations and Robot Learning for Dexterous Manipulation
- arxiv url: http://arxiv.org/abs/2510.15786v1
- Date: Fri, 17 Oct 2025 16:08:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.706919
- Title: DexCanvas: Bridging Human Demonstrations and Robot Learning for Dexterous Manipulation
- Title(参考訳): DexCanvas: Dexterous Manipulationのための人間デモとロボット学習のブリッジ
- Authors: Xinyue Xu, Jieqiang Sun, Jing, Dai, Siyuan Chen, Lanjie Ma, Ke Sun, Bin Zhao, Jianbo Yuan, Yiwen Lu,
- Abstract要約: このデータセットには、実際の人間の実演から70時間シードされた7000時間に及ぶ手-物体の相互作用が含まれている。
各エントリは、同期されたマルチビューRGB-D、MANOハンドパラメータによる高精度モキャップ、物理的に一貫した力プロファイルによるフレーム単位の接触点を組み合わせる。
私たちのリアル・トゥ・シムパイプラインは、物理シミュレーションにおいてアクティベートされたMANOハンドを制御するポリシーをトレーニングするために強化学習を使用します。
- 参考スコア(独自算出の注目度): 25.80343945502113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present DexCanvas, a large-scale hybrid real-synthetic human manipulation dataset containing 7,000 hours of dexterous hand-object interactions seeded from 70 hours of real human demonstrations, organized across 21 fundamental manipulation types based on the Cutkosky taxonomy. Each entry combines synchronized multi-view RGB-D, high-precision mocap with MANO hand parameters, and per-frame contact points with physically consistent force profiles. Our real-to-sim pipeline uses reinforcement learning to train policies that control an actuated MANO hand in physics simulation, reproducing human demonstrations while discovering the underlying contact forces that generate the observed object motion. DexCanvas is the first manipulation dataset to combine large-scale real demonstrations, systematic skill coverage based on established taxonomies, and physics-validated contact annotations. The dataset can facilitate research in robotic manipulation learning, contact-rich control, and skill transfer across different hand morphologies.
- Abstract(参考訳): DexCanvasは,70時間にわたる実人の実演から得られた7000時間のデクスタスハンドオブジェクトインタラクションを含む,大規模でハイブリッドな人体操作データセットであり,21種類の基本的な操作タイプで構成されている。
各エントリは、同期されたマルチビューRGB-D、MANOハンドパラメータによる高精度モキャップ、物理的に一貫した力プロファイルによるフレーム単位の接触点を組み合わせる。
我々のリアル・トゥ・シムパイプラインは、強化学習を用いて、物理シミュレーションにおいてアクティベートされたMANOの手を制御するポリシーを訓練し、人間のデモを再現し、観察された物体の動きを発生させる基盤となる接触力を発見します。
DexCanvasは、大規模な実演、確立した分類に基づく体系的なスキルカバレッジ、物理検証されたコンタクトアノテーションを組み合わせた最初の操作データセットである。
このデータセットは、ロボット操作学習、コンタクトリッチコントロール、手の形態の異なるスキル伝達の研究を促進することができる。
関連論文リスト
- CEDex: Cross-Embodiment Dexterous Grasp Generation at Scale from Human-like Contact Representations [53.37721117405022]
クロス・エボディメント・デキスタラス・グリップ合成(Cross-Embodiment dexterous grasp synthesis)とは、様々なロボットハンドのグリップを適応的に生成し、最適化することである。
そこで我々は,CEDexを提案する。
これまでで最大のクロス・エボディメント・グラウンド・データセットを構築し、合計20万のグリップを持つ4つのタイプにまたがる500万のオブジェクトからなる。
論文 参考訳(メタデータ) (2025-09-29T12:08:04Z) - Grasp Like Humans: Learning Generalizable Multi-Fingered Grasping from Human Proprioceptive Sensorimotor Integration [26.351720551267846]
触覚と審美的知覚は、人間の器用な操作に欠かせないものであり、感覚運動器統合による物体の確実な把握を可能にしている。
本研究では,人間の直感的・自然な操作から模倣学習に基づくロボット実行へのスキル伝達を把握するための,新しい手袋による触覚的知覚予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-10T07:44:12Z) - 3HANDS Dataset: Learning from Humans for Generating Naturalistic Handovers with Supernumerary Robotic Limbs [64.99122701615151]
スーパー数式ロボットアーム(英: Supernumerary Robotics limbs、SRL)は、ユーザーの身体と密に統合されたロボット構造である。
3HANDSは,日常活動を行う参加者と,ヒップマウントSRLを自然な方法で実施する参加者との間の,オブジェクトハンドオーバインタラクションの新たなデータセットである。
本稿では,自然なハンドオーバ軌跡を生成する3つのモデル,適切なハンドオーバエンドポイントを決定する1つのモデル,ハンドオーバ開始のタイミングを予測する3つのモデルを提案する。
論文 参考訳(メタデータ) (2025-03-06T17:23:55Z) - RealDex: Towards Human-like Grasping for Robotic Dexterous Hand [64.33746404551343]
本稿では,人間の行動パターンを取り入れた手の動きを正確に把握する先駆的データセットであるRealDexを紹介する。
RealDexは、現実のシナリオにおける認識、認識、操作を自動化するためのヒューマノイドロボットを進化させる上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-02-21T14:59:46Z) - Object Motion Guided Human Motion Synthesis [22.08240141115053]
大規模物体の操作におけるフルボディ人体動作合成の問題点について検討する。
条件付き拡散フレームワークであるOMOMO(Object Motion Guided Human Motion synthesis)を提案する。
我々は、操作対象物にスマートフォンを装着するだけで、全身の人間の操作動作をキャプチャする新しいシステムを開発した。
論文 参考訳(メタデータ) (2023-09-28T08:22:00Z) - Reconfigurable Data Glove for Reconstructing Physical and Virtual Grasps [100.72245315180433]
本研究では,人間の手-物体相互作用の異なるモードを捉えるために,再構成可能なデータグローブの設計を提案する。
グローブは3つのモードで動作し、異なる特徴を持つ様々な下流タスクを実行する。
i)手の動きと関連力を記録し,(ii)VRの操作流速を改善するとともに,(iii)様々なツールの現実的なシミュレーション効果を生み出すことにより,システムの3つのモードを評価する。
論文 参考訳(メタデータ) (2023-01-14T05:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。