論文の概要: CEDex: Cross-Embodiment Dexterous Grasp Generation at Scale from Human-like Contact Representations
- arxiv url: http://arxiv.org/abs/2509.24661v1
- Date: Mon, 29 Sep 2025 12:08:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.960319
- Title: CEDex: Cross-Embodiment Dexterous Grasp Generation at Scale from Human-like Contact Representations
- Title(参考訳): CEDex:人間のような接触表現からスケールでのクロス・エボディメント・デキステラス・グラフ生成
- Authors: Zhiyuan Wu, Rolandos Alexandros Potamias, Xuyang Zhang, Zhongqun Zhang, Jiankang Deng, Shan Luo,
- Abstract要約: クロス・エボディメント・デキスタラス・グリップ合成(Cross-Embodiment dexterous grasp synthesis)とは、様々なロボットハンドのグリップを適応的に生成し、最適化することである。
そこで我々は,CEDexを提案する。
これまでで最大のクロス・エボディメント・グラウンド・データセットを構築し、合計20万のグリップを持つ4つのタイプにまたがる500万のオブジェクトからなる。
- 参考スコア(独自算出の注目度): 53.37721117405022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-embodiment dexterous grasp synthesis refers to adaptively generating and optimizing grasps for various robotic hands with different morphologies. This capability is crucial for achieving versatile robotic manipulation in diverse environments and requires substantial amounts of reliable and diverse grasp data for effective model training and robust generalization. However, existing approaches either rely on physics-based optimization that lacks human-like kinematic understanding or require extensive manual data collection processes that are limited to anthropomorphic structures. In this paper, we propose CEDex, a novel cross-embodiment dexterous grasp synthesis method at scale that bridges human grasping kinematics and robot kinematics by aligning robot kinematic models with generated human-like contact representations. Given an object's point cloud and an arbitrary robotic hand model, CEDex first generates human-like contact representations using a Conditional Variational Auto-encoder pretrained on human contact data. It then performs kinematic human contact alignment through topological merging to consolidate multiple human hand parts into unified robot components, followed by a signed distance field-based grasp optimization with physics-aware constraints. Using CEDex, we construct the largest cross-embodiment grasp dataset to date, comprising 500K objects across four gripper types with 20M total grasps. Extensive experiments show that CEDex outperforms state-of-the-art approaches and our dataset benefits cross-embodiment grasp learning with high-quality diverse grasps.
- Abstract(参考訳): クロス・エボディメント・デキスタラス・グリップ合成(Cross-Embodiment dexterous grasp synthesis)とは、様々な形態のロボットハンドのグリップを適応的に生成し、最適化することである。
この能力は多様な環境で汎用的なロボット操作を実現するために不可欠であり、効果的なモデルトレーニングと堅牢な一般化のために、かなりの量の信頼性と多様な把握データを必要とする。
しかし、既存のアプローチは、人間のようなキネマティック理解に欠ける物理に基づく最適化に依存するか、人為的構造に限定される広範囲な手動データ収集プロセスを必要とする。
本稿では,ロボットキネマティックモデルと人間のような接触表現を協調させることにより,ロボットキネマティックスとロボットキネマティックスを橋渡しする,クロス・エボディメント・デキスタラス・グルーピング合成法であるCEDexを提案する。
物体の点雲と任意のロボットハンドモデルが与えられた後、CEDexはまず人間の接触データに基づいて事前訓練された条件付き変分自動エンコーダを用いて人間のような接触表現を生成する。
そして、トポロジカルマージングを通じて運動論的人間接触アライメントを実行し、複数の手の部分を統合したロボットコンポーネントにし、次いで、物理を意識した制約を伴う符号付き距離場に基づくグリップ最適化を行う。
CEDexを用いて,4つのグリップタイプにまたがる500万個のオブジェクトと合計20万個のグリップを含む,これまでで最大規模のクロス・エボディメント・グリップ・データセットを構築した。
大規模な実験により、CEDexは最先端のアプローチよりも優れており、我々のデータセットは、高品質な多様な知識で、クロス・エボディーズ・グリープ・ラーニングの恩恵を受けています。
関連論文リスト
- H-RDT: Human Manipulation Enhanced Bimanual Robotic Manipulation [27.585828712261232]
H-RDT(Human to Robotics Diffusion Transformer)は、人間の操作データを利用してロボット操作能力を向上する新しいアプローチである。
私たちの重要な洞察は、大規模なエゴセントリックな人間操作ビデオとペアの3Dハンドポーズアノテーションが、自然な操作戦略を捉えたリッチな行動優先を提供するということです。
本研究では,(1)大規模な人間操作データに対する事前トレーニング,(2)モジュール型アクションエンコーダとデコーダを用いたロボット固有のデータに対するクロスエボディメント微調整という2段階の訓練パラダイムを導入する。
論文 参考訳(メタデータ) (2025-07-31T13:06:59Z) - Physics-Driven Data Generation for Contact-Rich Manipulation via Trajectory Optimization [22.234170426206987]
本稿では,物理シミュレーション,人間の実演,モデルベース計画を統合した低コストなデータ生成パイプラインを提案する。
コンタクトリッチな操作タスクに挑戦するための拡散ポリシーをトレーニングすることで,パイプラインの有効性を検証する。
トレーニングされたポリシは、バイマガルアイワアーム用のハードウェアにゼロショットでデプロイされ、人間の入力を最小限に抑えて高い成功率を達成する。
論文 参考訳(メタデータ) (2025-02-27T18:56:01Z) - AnyDexGrasp: General Dexterous Grasping for Different Hands with Human-level Learning Efficiency [49.868970174484204]
我々は,最小限のデータを用いてきめ細やかな把握を学習するための効率的なアプローチを提案する。
提案手法は,40個の訓練対象に対して数百のグリップ試行を行うだけで,人間レベルの学習効率で高い性能を達成できる。
この方法は、ヒューマノイドロボット、人工装具、その他頑丈で汎用的なロボット操作を必要とする領域に対する有望な応用を実証する。
論文 参考訳(メタデータ) (2025-02-23T03:26:06Z) - Mitigating the Human-Robot Domain Discrepancy in Visual Pre-training for Robotic Manipulation [16.809190349155525]
そこで本研究では,容易に利用可能な人間ロボットのビデオデータを利用して,ドメインギャップを埋める新しい適応パラダイムを提案する。
提案手法では,人間とロボットのビデオのセマンティクスを整列させるために,人間ロボットのアライメント損失を用いて,事前学習したモデルをパラメータ効率よくロボット領域に適応させる。
論文 参考訳(メタデータ) (2024-06-20T11:57:46Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - SynH2R: Synthesizing Hand-Object Motions for Learning Human-to-Robot Handovers [35.386426373890615]
視覚に基づく人間とロボットのハンドオーバは、人間とロボットのインタラクションにおいて重要かつ困難なタスクである。
本稿では,ロボットの訓練に適した人間のつかみ動作を生成するためのフレームワークを提案する。
これにより、以前の作業よりも100倍多くのオブジェクトで、総合的なトレーニングとテストデータを生成することができます。
論文 参考訳(メタデータ) (2023-11-09T18:57:02Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。