論文の概要: Generate, Transfer, Adapt: Learning Functional Dexterous Grasping from a Single Human Demonstration
- arxiv url: http://arxiv.org/abs/2601.05243v1
- Date: Thu, 08 Jan 2026 18:59:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.353158
- Title: Generate, Transfer, Adapt: Learning Functional Dexterous Grasping from a Single Human Demonstration
- Title(参考訳): 単一人間のデモから機能的デキステラスグラフプを学習する, 伝達, 適応
- Authors: Xingyi He, Adhitya Polavaram, Yunhao Cao, Om Deshmukh, Tianrui Wang, Xiaowei Zhou, Kuan Fang,
- Abstract要約: 合成データから新規物体のデキスタスな機能的把握を頑健に学習するフレームワークであるCorDexを提案する。
私たちのアプローチの核となるのは、シミュレーションにおいて多様な高品質なトレーニングデータを生成する対応ベースのデータエンジンです。
生成したデータに基づいて視覚情報と幾何学情報を統合するマルチモーダル予測ネットワークを導入する。
- 参考スコア(独自算出の注目度): 23.251258563998253
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Functional grasping with dexterous robotic hands is a key capability for enabling tool use and complex manipulation, yet progress has been constrained by two persistent bottlenecks: the scarcity of large-scale datasets and the absence of integrated semantic and geometric reasoning in learned models. In this work, we present CorDex, a framework that robustly learns dexterous functional grasps of novel objects from synthetic data generated from just a single human demonstration. At the core of our approach is a correspondence-based data engine that generates diverse, high-quality training data in simulation. Based on the human demonstration, our data engine generates diverse object instances of the same category, transfers the expert grasp to the generated objects through correspondence estimation, and adapts the grasp through optimization. Building on the generated data, we introduce a multimodal prediction network that integrates visual and geometric information. By devising a local-global fusion module and an importance-aware sampling mechanism, we enable robust and computationally efficient prediction of functional dexterous grasps. Through extensive experiments across various object categories, we demonstrate that CorDex generalizes well to unseen object instances and significantly outperforms state-of-the-art baselines.
- Abstract(参考訳): 器用なロボットハンドによる機能的把握は、ツールの使用と複雑な操作を可能にする重要な機能である。しかしながら、大規模データセットの不足と、学習モデルにおける統合意味論と幾何学的推論の欠如という、2つの永続的なボトルネックによって、進歩が制限されている。
本研究では,1つの人間の実演から生成した合成データから,新しい物体の巧妙な機能的把握を頑健に学習するフレームワークであるCorDexを提案する。
私たちのアプローチの核となるのは、シミュレーションにおいて多様な高品質なトレーニングデータを生成する対応ベースのデータエンジンです。
人間の実演に基づいて、我々のデータエンジンは同じカテゴリの多様なオブジェクトインスタンスを生成し、対応推定により専門家の把握を生成オブジェクトに転送し、最適化により把握を適応させる。
生成したデータに基づいて視覚情報と幾何学情報を統合するマルチモーダル予測ネットワークを導入する。
ローカル・グローバル・フュージョン・モジュールと重要対応サンプリング・メカニズムを考案することにより,機能的デクスタラス・グリップの頑健かつ効率的な予測を可能にする。
様々な対象カテゴリにわたる広範な実験を通して、CorDexが未確認のオブジェクトインスタンスによく一般化し、最先端のベースラインを著しく上回ることを示した。
関連論文リスト
- URDF-Anything: Constructing Articulated Objects with 3D Multimodal Language Model [76.08429266631823]
3次元マルチモーダル大言語モデル(MLLM)に基づくエンドツーエンドの自動再構築フレームワークを提案する。
URDF-Anythingは、ポイントクラウドとテキストマルチモーダル入力に基づく自己回帰予測フレームワークを使用して、幾何学的セグメンテーションと運動論的パラメータ予測を協調的に最適化する。
シミュレーションと実世界の両方のデータセットの実験は、我々の手法が既存の手法よりも大幅に優れていることを示した。
論文 参考訳(メタデータ) (2025-11-02T13:45:51Z) - CEDex: Cross-Embodiment Dexterous Grasp Generation at Scale from Human-like Contact Representations [53.37721117405022]
クロス・エボディメント・デキスタラス・グリップ合成(Cross-Embodiment dexterous grasp synthesis)とは、様々なロボットハンドのグリップを適応的に生成し、最適化することである。
そこで我々は,CEDexを提案する。
これまでで最大のクロス・エボディメント・グラウンド・データセットを構築し、合計20万のグリップを持つ4つのタイプにまたがる500万のオブジェクトからなる。
論文 参考訳(メタデータ) (2025-09-29T12:08:04Z) - The Well: a Large-Scale Collection of Diverse Physics Simulations for Machine Learning [4.812580392361432]
ウェルは様々な物理系の数値シミュレーションの大規模なコレクションである。
これらのデータセットは、個別またはより広範なベンチマークスイートの一部として使用することができる。
モデルをトレーニングし、評価するための統合されたPyTorchインターフェースを提供する。
論文 参考訳(メタデータ) (2024-11-30T19:42:14Z) - LS-HAR: Language Supervised Human Action Recognition with Salient Fusion, Construction Sites as a Use-Case [7.565275399668322]
本稿では,LS-HAR という言語指導法を用いて,ヒューマンアクション認識(HAR)に新たなアプローチを導入する。
特徴表現を最適化するために,スケルトンモダリティを条件とした言語モデルに対して学習可能なプロンプトを用いる。
建設現場での実際のロボット応用に適した新しいデータセットを導入し、VolvoConstActというビジュアル、スケルトン、深度のデータモダリティを特徴とする。
論文 参考訳(メタデータ) (2024-10-02T19:10:23Z) - Generative Expansion of Small Datasets: An Expansive Graph Approach [13.053285552524052]
最小限のサンプルから大規模で情報豊富なデータセットを生成する拡張合成モデルを提案する。
自己アテンション層と最適なトランスポートを持つオートエンコーダは、分散一貫性を洗練させる。
結果は同等のパフォーマンスを示し、モデルがトレーニングデータを効果的に増強する可能性を示している。
論文 参考訳(メタデータ) (2024-06-25T02:59:02Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Multimodal Data Fusion in High-Dimensional Heterogeneous Datasets via
Generative Models [16.436293069942312]
我々は、教師なしの方法で高次元異種データから確率的生成モデルを学習することに興味がある。
本稿では,指数関数的な分布系を通じて異なるデータ型を結合する一般的なフレームワークを提案する。
提案アルゴリズムは、実数値(ガウス)とカテゴリー(マルチノミカル)の特徴を持つ、よく遭遇する異種データセットについて詳細に述べる。
論文 参考訳(メタデータ) (2021-08-27T18:10:31Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。