論文の概要: DexGrasp-Zero: A Morphology-Aligned Policy for Zero-Shot Cross-Embodiment Dexterous Grasping
- arxiv url: http://arxiv.org/abs/2603.16806v1
- Date: Tue, 17 Mar 2026 17:10:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.444764
- Title: DexGrasp-Zero: A Morphology-Aligned Policy for Zero-Shot Cross-Embodiment Dexterous Grasping
- Title(参考訳): DexGrasp-Zero:ゼロショットのクロス・エボディメント・デキステラス・グラッピングのための形態的アライメント・ポリシー
- Authors: Yuliang Wu, Yanhan Lin, WengKit Lao, Yuhao Lin, Yi-Lin Wei, Wei-Shi Zheng, Ancong Wu,
- Abstract要約: 異種手動と身体的制約により、クロス・エボディメントの把握は困難である。
既存のアプローチは通常、中間運動目標を予測し、それぞれの実施形態に再ターゲットする。
多様な実施形態から普遍的な把握能力を学ぶ政策である textitDexGrasp-Zero を提案する。
- 参考スコア(独自算出の注目度): 46.96135601170059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To meet the demands of increasingly diverse dexterous hand hardware, it is crucial to develop a policy that enables zero-shot cross-embodiment grasping without redundant re-learning. Cross-embodiment alignment is challenging due to heterogeneous hand kinematics and physical constraints. Existing approaches typically predict intermediate motion targets and retarget them to each embodiment, which may introduce errors and violate embodiment-specific limits, hindering transfer across diverse hands. To overcome these limitations, we propose \textit{DexGrasp-Zero}, a policy that learns universal grasping skills from diverse embodiments, enabling zero-shot transfer to unseen hands. We first introduce a morphology-aligned graph representation that maps each hand's kinematic keypoints to anatomically grounded nodes and equips each node with tri-axial orthogonal motion primitives, enabling structural and semantic alignment across different morphologies. Relying on this graph-based representation, we design a \textit{Morphology-Aligned Graph Convolutional Network} (MAGCN) to encode the graph for policy learning. MAGCN incorporates a \textit{Physical Property Injection} mechanism that fuses hand-specific physical constraints into the graph features, enabling adaptive compensation for varying link lengths and actuation limits for precise and stable grasping. Our extensive simulation evaluations on the YCB dataset demonstrate that our policy, jointly trained on four heterogeneous hands (Allegro, Shadow, Schunk, Ability), achieves an 85\% zero-shot success rate on unseen hardware (LEAP, Inspire), outperforming the state-of-the-art method by 59.5\%. Real-world experiments further evaluate our policy on three robot platforms (LEAP, Inspire, Revo2), achieving an 82\% average success rate on unseen objects.
- Abstract(参考訳): 多様な手作りハードウェアの需要に応えるため、冗長な再学習なしにゼロショットのクロスボデーメントの把握を可能にする政策を開発することが不可欠である。
異種手キネマティクスと物理的制約により、クロス・エボディメント・アライメントは困難である。
既存のアプローチは、通常、中間運動目標を予測し、それらを各実施形態に再ターゲティングする。
これらの制限を克服するために,多様な実施形態から普遍的な把握スキルを学習し,目に見えない手へのゼロショット転送を可能にする政策である「textit{DexGrasp-Zero}」を提案する。
まず、各手のキーポイントを解剖学的に接地したノードにマッピングし、各ノードに3軸直交運動プリミティブを装備し、異なる形態素をまたいだ構造的および意味的アライメントを可能にする形態素整合グラフ表現を提案する。
このグラフに基づく表現に基づいて、政策学習のためのグラフを符号化する、 \textit{Morphology-Aligned Graph Convolutional Network} (MAGCN) を設計する。
MAGCNは、グラフの特徴に手固有の物理的制約を融合させる、 \textit{Physical Property Injection} 機構を組み込んでいる。
YCBデータセットを用いた大規模なシミュレーション評価により,不均質な4つの手(Allegro, Shadow, Schunk, Ability)で共同でトレーニングしたポリシーは,未確認ハードウェア(LEAP, Inspire)で85%のゼロショット成功率を実現し,最先端の手法を59.55%上回る結果となった。
実世界の実験は、3つのロボットプラットフォーム(LEAP, Inspire, Revo2)のポリシーをさらに評価し、未確認物体の平均成功率は82%に達した。
関連論文リスト
- Structural Action Transformer for 3D Dexterous Manipulation [80.07649565189035]
クロス・エボディメント・スキル・トランスファーは、ハイDoFロボットハンドの課題である。
既存の手法は、しばしば2次元の観測と時間中心の行動表現に依存し、3次元の空間的関係を捉えるのに苦労する。
本稿では、構造中心の視点を導入することで、このパラダイムに挑戦する新しい3Dデクスタラスな操作ポリシーを提案する。
論文 参考訳(メタデータ) (2026-03-04T11:38:12Z) - MOTIF: Learning Action Motifs for Few-shot Cross-Embodiment Transfer [55.982504915794514]
クロス・エボディメント・ポリシーは一般的に共有プライベート・アーキテクチャに依存している。
本報告では,MOTIFを効率よく数発のクロスボディーメントトランスファーに適用する。
我々はMOTIFが数発の転送シナリオにおいて強いベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2026-02-14T13:21:40Z) - Cross-Embodiment Dexterous Hand Articulation Generation via Morphology-Aware Learning [82.63833405368159]
既存のエンドツーエンドメソッドでは、特定の手で大規模なデータセットをトレーニングする必要がある。
本稿では,固有グラフに基づくクロスボデーメントグリップ生成のためのエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-07T15:57:00Z) - A Graph-Based Framework for Interpretable Whole Slide Image Analysis [86.37618055724441]
我々は,全スライディング画像を生物学的にインフォームドされたグラフ表現に変換するフレームワークを開発した。
我々のアプローチは、任意の格子ではなく、自然構造を尊重する組織領域からグラフノードを構築する。
がんのステージングと生存予測の課題に強いパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-03-14T20:15:04Z) - DexGrasp Anything: Towards Universal Robotic Dexterous Grasping with Physics Awareness [38.310226324389596]
汎用的なエンボディロボットの開発には,任意の物体をつかむことのできる器用な手が不可欠である。
DexGrasp Anythingは拡散型生成モデルのトレーニングおよびサンプリングフェーズに物理的制約を統合する手法である。
我々は、15k以上の異なるオブジェクトに対して340万以上の多様なグルーピングポーズを含む、新しいデクスタラスなグルーピングデータセットを提案する。
論文 参考訳(メタデータ) (2025-03-11T10:21:50Z) - Decomposed Vector-Quantized Variational Autoencoder for Human Grasp Generation [27.206656215734295]
本稿では,DVQ-VAE(Decomposed Vector-Quantized Variational Autoencoder)を提案する。
部分認識の分解アーキテクチャは、手とオブジェクトの各コンポーネント間のインタラクションをより正確に管理するのに役立つ。
提案モデルでは,4つのベンチマークにおいて,最先端の手法と比較して,品質指標の14.1%の相対的な改善を実現した。
論文 参考訳(メタデータ) (2024-07-19T06:41:16Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。