論文の概要: One Hand to Rule Them All: Canonical Representations for Unified Dexterous Manipulation
- arxiv url: http://arxiv.org/abs/2602.16712v1
- Date: Wed, 18 Feb 2026 18:59:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.549951
- Title: One Hand to Rule Them All: Canonical Representations for Unified Dexterous Manipulation
- Title(参考訳): 統一デキスタスマニピュレーションのための標準表現
- Authors: Zhenyu Wei, Yunchao Yao, Mingyu Ding,
- Abstract要約: 本稿では,手品の幅広いスペクトルを統一するパラメータ化標準表現を提案する。
統一されたパラメータ空間と標準URDFフォーマットを備え、3つの重要な利点を提供している。
我々はこれらの利点を、把握ポリシーのリプレイ、VAEラテントエンコーディング、クロス・エボディメント・ゼロショット転送など、広範な分析と実験を通じて検証する。
- 参考スコア(独自算出の注目度): 23.25726061664319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dexterous manipulation policies today largely assume fixed hand designs, severely restricting their generalization to new embodiments with varied kinematic and structural layouts. To overcome this limitation, we introduce a parameterized canonical representation that unifies a broad spectrum of dexterous hand architectures. It comprises a unified parameter space and a canonical URDF format, offering three key advantages. 1) The parameter space captures essential morphological and kinematic variations for effective conditioning in learning algorithms. 2) A structured latent manifold can be learned over our space, where interpolations between embodiments yield smooth and physically meaningful morphology transitions. 3) The canonical URDF standardizes the action space while preserving dynamic and functional properties of the original URDFs, enabling efficient and reliable cross-embodiment policy learning. We validate these advantages through extensive analysis and experiments, including grasp policy replay, VAE latent encoding, and cross-embodiment zero-shot transfer. Specifically, we train a VAE on the unified representation to obtain a compact, semantically rich latent embedding, and develop a grasping policy conditioned on the canonical representation that generalizes across dexterous hands. We demonstrate, through simulation and real-world tasks on unseen morphologies (e.g., 81.9% zero-shot success rate on 3-finger LEAP Hand), that our framework unifies both the representational and action spaces of structurally diverse hands, providing a scalable foundation for cross-hand learning toward universal dexterous manipulation.
- Abstract(参考訳): 現在、デクサラスな操作ポリシーは、主に固定手の設計を前提としており、様々なキネマティックなレイアウトと構造的なレイアウトを持つ新しい実施形態への一般化を厳しく制限している。
この制限を克服するために,手指の広いスペクトルを統一するパラメータ化された標準表現を導入する。
統一されたパラメータ空間と標準URDFフォーマットを備え、3つの重要な利点を提供している。
1) パラメータ空間は学習アルゴリズムにおける効果的な条件付けに必須な形態的および運動学的変化を捉えている。
2) 構造付き潜在多様体は我々の空間上で学習することができ、そこではエンボディメント間の補間が滑らかで物理的に意味のある形態的遷移をもたらす。
3)標準URDFは,従来のURDFの動的・機能的特性を保ちながら,アクション空間を標準化し,効率的かつ信頼性の高いクロス・エボディメント・ポリシー学習を可能にする。
我々はこれらの利点を、把握ポリシーのリプレイ、VAEラテントエンコーディング、クロス・エボディメント・ゼロショット転送など、広範な分析と実験を通じて検証する。
具体的には、統一表現上のVAEを訓練し、コンパクトで意味的にリッチな潜伏埋め込みを得るとともに、器用な手間で一般化する正準表現に基づく把握ポリシーを開発する。
我々は,3本指のLEAPハンドにおけるゼロショット成功率81.9%など)のシミュレーションと実世界の課題を通じて,我々のフレームワークが構造的に多様なハンドの表現空間と行動空間を統一し,汎用的なデキスタス操作に向けたクロスハンド学習のスケーラブルな基盤を提供することを実証した。
関連論文リスト
- DexGrasp-Zero: A Morphology-Aligned Policy for Zero-Shot Cross-Embodiment Dexterous Grasping [46.96135601170059]
異種手動と身体的制約により、クロス・エボディメントの把握は困難である。
既存のアプローチは通常、中間運動目標を予測し、それぞれの実施形態に再ターゲットする。
多様な実施形態から普遍的な把握能力を学ぶ政策であるDexGrasp-Zeroを提案する。
論文 参考訳(メタデータ) (2026-03-17T17:10:29Z) - ReHARK: Refined Hybrid Adaptive RBF Kernels for Robust One-Shot Vision-Language Adaptation [3.8707695363745214]
ReHARKは、グローバルな近位正規化を通じて、少数ショット適応を再解釈する、トレーニング不要のフレームワークである。
ワンショット適応のための新しい最先端技術がReHARKによって確立され、平均精度は65.83%である。
論文 参考訳(メタデータ) (2026-03-12T04:59:09Z) - AffordGrasp: Cross-Modal Diffusion for Affordance-Aware Grasp Synthesis [50.793806818677716]
AffordGraspは、物理的に安定し、セマンティックに忠実な人間の握りを高精度に生成する。
AffordGraspは、手ポーズの空きを意識した潜在表現を二重条件拡散プロセスに統合する。
AffordGraspはHO-3D, OakInk, GRAB, AffordPoseの4つの命令強化ベンチマークで評価した。
論文 参考訳(メタデータ) (2026-03-09T06:56:35Z) - Structural Action Transformer for 3D Dexterous Manipulation [80.07649565189035]
クロス・エボディメント・スキル・トランスファーは、ハイDoFロボットハンドの課題である。
既存の手法は、しばしば2次元の観測と時間中心の行動表現に依存し、3次元の空間的関係を捉えるのに苦労する。
本稿では、構造中心の視点を導入することで、このパラダイムに挑戦する新しい3Dデクスタラスな操作ポリシーを提案する。
論文 参考訳(メタデータ) (2026-03-04T11:38:12Z) - Do We Need Perfect Data? Leveraging Noise for Domain Generalized Segmentation [20.89655949578527]
本稿では,この制限を頑健な学習機会に変換するフレームワークFLEX-Segを提案する。
5つの実世界のデータセットに対する実験は、最先端の手法よりも一貫した改善を示している。
その結果、不完全な合成データを扱うための適応的戦略が、ドメインの一般化に優れた結果をもたらすことが検証された。
論文 参考訳(メタデータ) (2025-11-28T07:46:32Z) - Hierarchical Neural Semantic Representation for 3D Semantic Correspondence [72.8101601086805]
階層型ニューラルセマンティック表現(HNSR)を設計し,高次構造と多分解能局所幾何学的特徴を捉える。
第2に,グローバルなセマンティック特徴を用いた粗いセマンティック対応を確立する,プログレッシブなグローバル-ローカルマッチング戦略を設計する。
第3に,本フレームワークはトレーニングフリーで,様々なトレーニング済みの3D生成バックボーンと広範囲に互換性があり,多様な形状カテゴリにまたがる強力な一般化が示されている。
論文 参考訳(メタデータ) (2025-09-22T07:23:07Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。