論文の概要: Cross-Embodiment Dexterous Hand Articulation Generation via Morphology-Aware Learning
- arxiv url: http://arxiv.org/abs/2510.06068v1
- Date: Tue, 07 Oct 2025 15:57:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.336678
- Title: Cross-Embodiment Dexterous Hand Articulation Generation via Morphology-Aware Learning
- Title(参考訳): 形態認識学習によるクロス・エボディメント・デキステラス手関節生成
- Authors: Heng Zhang, Kevin Yuchen Ma, Mike Zheng Shou, Weisi Lin, Yan Wu,
- Abstract要約: 既存のエンドツーエンドメソッドでは、特定の手で大規模なデータセットをトレーニングする必要がある。
本稿では,固有グラフに基づくクロスボデーメントグリップ生成のためのエンドツーエンドフレームワークを提案する。
- 参考スコア(独自算出の注目度): 82.63833405368159
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dexterous grasping with multi-fingered hands remains challenging due to high-dimensional articulations and the cost of optimization-based pipelines. Existing end-to-end methods require training on large-scale datasets for specific hands, limiting their ability to generalize across different embodiments. We propose an eigengrasp-based, end-to-end framework for cross-embodiment grasp generation. From a hand's morphology description, we derive a morphology embedding and an eigengrasp set. Conditioned on these, together with the object point cloud and wrist pose, an amplitude predictor regresses articulation coefficients in a low-dimensional space, which are decoded into full joint articulations. Articulation learning is supervised with a Kinematic-Aware Articulation Loss (KAL) that emphasizes fingertip-relevant motions and injects morphology-specific structure. In simulation on unseen objects across three dexterous hands, our model attains a 91.9% average grasp success rate with less than 0.4 seconds inference per grasp. With few-shot adaptation to an unseen hand, it achieves 85.6% success on unseen objects in simulation, and real-world experiments on this few-shot generalized hand achieve an 87% success rate. The code and additional materials will be made available upon publication on our project website https://connor-zh.github.io/cross_embodiment_dexterous_grasping.
- Abstract(参考訳): マルチフィンガーハンドによるデクサラスグルーピングは、高次元の調音と最適化に基づくパイプラインのコストのため、依然として困難である。
既存のエンドツーエンドの手法では、特定の手で大規模なデータセットをトレーニングする必要がある。
本稿では,固有グラフに基づくクロスボデーメントグリップ生成のためのエンドツーエンドフレームワークを提案する。
手の形態的記述から、形態的埋め込みと固有グラフ集合を導出する。
これらは、物体点雲と手首ポーズとともに条件付けられ、振幅予測器は低次元空間における調音係数を回帰し、全関節調音に復号する。
調音学習はKAL(Kinematic-Aware Articulation Loss)によって指導され、指先関連運動を強調し、形態学固有の構造を注入する。
3つの自在な手にわたる物体のシミュレーションにおいて, 平均的獲得成功率は91.9%であり, 握り当たり0.4秒未満である。
目に見えない手へのわずかな適応で、シミュレーションで見えない物体に対して85.6%の成功を達成し、この数発の一般化された手に対する実世界実験は87%の成功率を達成した。
コードと追加資料は、プロジェクトのWebサイトhttps://connor-zh.github.io/cross_embodiment_dexterous_graspingで公開されます。
関連論文リスト
- CEDex: Cross-Embodiment Dexterous Grasp Generation at Scale from Human-like Contact Representations [53.37721117405022]
クロス・エボディメント・デキスタラス・グリップ合成(Cross-Embodiment dexterous grasp synthesis)とは、様々なロボットハンドのグリップを適応的に生成し、最適化することである。
そこで我々は,CEDexを提案する。
これまでで最大のクロス・エボディメント・グラウンド・データセットを構築し、合計20万のグリップを持つ4つのタイプにまたがる500万のオブジェクトからなる。
論文 参考訳(メタデータ) (2025-09-29T12:08:04Z) - ARMO: Autoregressive Rigging for Multi-Category Objects [8.030479370619458]
我々はOmniRigを紹介した。OmniRigは79,499個のメッシュで構成され、詳細なスケルトンとスキン情報を含んでいる。
定義済みの標準ポーズに依存する従来のベンチマークとは異なり、データセットにはさまざまな形状カテゴリ、スタイル、ポーズが採用されています。
本稿では、自己回帰モデルを用いて、関節位置と接続関係を統一的に予測する新しいリギングフレームワークARMOを提案する。
論文 参考訳(メタデータ) (2025-03-26T15:56:48Z) - MagicArticulate: Make Your 3D Models Articulation-Ready [109.35703811628045]
静的な3Dモデルを自動的に調音可能なアセットに変換する効果的なフレームワークであるMagicArticulateを提案する。
まず,高品質な調音アノテーションを備えた33k以上の3Dモデルを含むArticulation-averseベンチマークを紹介し,XL-XLから慎重にキュレートする。
大規模な実験では、MagicArticulateはさまざまなオブジェクトカテゴリで既存のメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-02-17T18:53:27Z) - DexGraspNet 2.0: Learning Generative Dexterous Grasping in Large-scale Synthetic Cluttered Scenes [18.95051035812627]
1319のオブジェクト,8270のシーン,4億2700万のグリップを含む大規模合成ベンチマークを提示する。
また,局所幾何学を条件とした拡散モデルを用いて,データから効率的に学習する新しい2段階把握手法を提案する。
テスト時間深度復元の助けを借りて,ゼロショット・シム・トゥ・リアル・トランスファーを実証し,90.7%の精度で撮影に成功した。
論文 参考訳(メタデータ) (2024-10-30T13:30:39Z) - ContactDexNet: Multi-fingered Robotic Hand Grasping in Cluttered Environments through Hand-object Contact Semantic Mapping [14.674925349389179]
接触セマンティックマップを用いて, 乱雑な環境下でのマルチフィンガーハンドグリップサンプルを生成する手法を開発した。
また,マルチモーダルなマルチフィンガーグリップデータセット生成手法を提案する。
論文 参考訳(メタデータ) (2024-04-12T23:11:36Z) - Combining Shape Completion and Grasp Prediction for Fast and Versatile
Grasping with a Multi-Fingered Hand [2.4682909476447588]
本稿では,形状完了モジュールとグリップ予測器からなる,新しい,高速かつ高忠実度深層学習パイプラインを提案する。
予測器の把握には,まず自己回帰モデルを用いて手ポーズを生成し,その後,ポーズ毎に指関節構成を回帰する2段階のアーキテクチャを用いる。
物理ロボットプラットフォームを用いた実験では, 単一視点からの深度画像に基づいて, 広範囲の家庭用物体の把握に成功した。
論文 参考訳(メタデータ) (2023-10-31T10:46:19Z) - GAMMA: Generalizable Articulation Modeling and Manipulation for
Articulated Objects [53.965581080954905]
本稿では,GAMMA(Generalizable Articulation Modeling and Manipulating for Articulated Objects)の新たな枠組みを提案する。
GAMMAは,異なるカテゴリーの多種多様な調音オブジェクトから,調音モデルと手取りポーズの相違を学習する。
その結果, GAMMA はSOTA の調音モデルおよび操作アルゴリズムを, 目に見えない, 横断的な調音オブジェクトで著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2023-09-28T08:57:14Z) - Multiscale Residual Learning of Graph Convolutional Sequence Chunks for
Human Motion Prediction [23.212848643552395]
時間的および空間的依存関係の学習による人間の動作予測のための新しい手法を提案する。
提案手法は,動作予測のためのシーケンス情報を効果的にモデル化し,他の手法よりも優れ,新しい最先端の手法を設定できる。
論文 参考訳(メタデータ) (2023-08-31T15:23:33Z) - Interacting Hand-Object Pose Estimation via Dense Mutual Attention [97.26400229871888]
3Dハンドオブジェクトのポーズ推定は多くのコンピュータビジョンアプリケーションの成功の鍵となる。
本研究では,手と物体間の微粒な依存関係をモデル化できる新しい相互注意機構を提案する。
提案手法は,高品質かつリアルタイムな推論速度で,物理的に妥当なポーズを生成できる。
論文 参考訳(メタデータ) (2022-11-16T10:01:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。