論文の概要: Dexonomy: Synthesizing All Dexterous Grasp Types in a Grasp Taxonomy
- arxiv url: http://arxiv.org/abs/2504.18829v1
- Date: Sat, 26 Apr 2025 07:32:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.008767
- Title: Dexonomy: Synthesizing All Dexterous Grasp Types in a Grasp Taxonomy
- Title(参考訳): Dexonomy:Grasp分類におけるすべてのDexterous Graspタイプを合成する
- Authors: Jiayi Chen, Yubin Ke, Lin Peng, He Wang,
- Abstract要約: 知能ロボットの基本技術として,適切な把握型による汎用的デクスタラスグリップが重要である。
既存の自動グリップ合成法は、特定のグリップタイプやオブジェクトカテゴリに限られることが多い。
本研究は, 接触量の多い, 浸透性のない, 物理的に妥当なグリップを, 任意のグリップタイプ, 物体, 明瞭な手に対して合成可能な, 効率的なパイプラインを提案する。
- 参考スコア(独自算出の注目度): 9.52211166462638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalizable dexterous grasping with suitable grasp types is a fundamental skill for intelligent robots. Developing such skills requires a large-scale and high-quality dataset that covers numerous grasp types (i.e., at least those categorized by the GRASP taxonomy), but collecting such data is extremely challenging. Existing automatic grasp synthesis methods are often limited to specific grasp types or object categories, hindering scalability. This work proposes an efficient pipeline capable of synthesizing contact-rich, penetration-free, and physically plausible grasps for any grasp type, object, and articulated hand. Starting from a single human-annotated template for each hand and grasp type, our pipeline tackles the complicated synthesis problem with two stages: optimize the object to fit the hand template first, and then locally refine the hand to fit the object in simulation. To validate the synthesized grasps, we introduce a contact-aware control strategy that allows the hand to apply the appropriate force at each contact point to the object. Those validated grasps can also be used as new grasp templates to facilitate future synthesis. Experiments show that our method significantly outperforms previous type-unaware grasp synthesis baselines in simulation. Using our algorithm, we construct a dataset containing 10.7k objects and 9.5M grasps, covering 31 grasp types in the GRASP taxonomy. Finally, we train a type-conditional generative model that successfully performs the desired grasp type from single-view object point clouds, achieving an 82.3% success rate in real-world experiments. Project page: https://pku-epic.github.io/Dexonomy.
- Abstract(参考訳): 知能ロボットの基本技術として,適切な把握型による汎用的デクスタラスグリップが重要である。
このようなスキルを開発するには、多数の把握型(少なくともGRASP分類で分類されたもの)をカバーする大規模で高品質なデータセットが必要であるが、そのようなデータを集めることは極めて困難である。
既存のグリップ合成手法は、しばしば特定のグリップタイプやオブジェクトカテゴリに限られており、スケーラビリティを妨げている。
本研究は, 接触量の多い, 浸透性のない, 物理的に妥当なグリップを, 任意のグリップタイプ, 物体, 明瞭な手に対して合成可能な, 効率的なパイプラインを提案する。
我々のパイプラインは、手書きのテンプレートを1つ、手書きのテンプレートを1つから始め、手書きのテンプレートに合わせるようにオブジェクトを最適化し、そのオブジェクトをシミュレーションで適合させるという、複雑な合成問題に対処します。
合成したグリップを検証するために,各接触点に適切な力を加えることのできる接触認識制御戦略を導入する。
これらの検証されたグリップは、将来の合成を容易にするための新しいグリップテンプレートとしても使用できる。
実験により,本手法はシミュレーションにおいて,従来の非認識型グリップ合成ベースラインを著しく上回っていることが示された。
本アルゴリズムは10.7kのオブジェクトと9.5Mのグリップを含むデータセットを構築し,GRASP分類における31のグリップタイプをカバーする。
最後に,実世界の実験で82.3%の成功率を達成し,単一視点のオブジェクトポイントクラウドから所望のグリップタイプをうまく実行するための条件付き生成モデルを訓練する。
プロジェクトページ: https://pku-epic.github.io/Dexonomy
関連論文リスト
- SIGHT: Single-Image Conditioned Generation of Hand Trajectories for Hand-Object Interaction [86.54738165527502]
本研究では,物体の1つの画像に対して,現実的かつ多様な3次元ハンドトラジェクトリを生成する新しいタスクを提案する。
手動物体の相互作用の軌跡は、ロボット工学、具体化されたAI、拡張現実、および関連分野の応用に大きな恩恵をもたらす。
論文 参考訳(メタデータ) (2025-03-28T20:53:20Z) - Scaling Laws of Synthetic Data for Language Models [132.67350443447611]
プレトレーニングコーパスを多種多様な高品質な合成データセットに変換するスケーラブルなフレームワークであるSynthLLMを紹介した。
提案手法は,グラフアルゴリズムを用いて複数の文書にまたがるハイレベルな概念を自動的に抽出し,再結合することで実現している。
論文 参考訳(メタデータ) (2025-03-25T11:07:12Z) - Infinite Mobility: Scalable High-Fidelity Synthesis of Articulated Objects via Procedural Generation [22.500531114325092]
Infinite Mobilityは、手続き生成による高忠実度調音オブジェクトの新しい手法である。
我々の合成データは、生成モデルのトレーニングデータとして利用でき、次のステップのスケールアップを可能にします。
論文 参考訳(メタデータ) (2025-03-17T17:53:56Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - SynthesizRR: Generating Diverse Datasets with Retrieval Augmentation [55.2480439325792]
トピック分類,感情分析,トーン検出,ユーモアの6つのデータセットの合成について検討した。
その結果,SynthesizRRは語彙や意味の多様性,人文との類似性,蒸留性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-05-16T12:22:41Z) - DexGraspNet: A Large-Scale Robotic Dexterous Grasp Dataset for General
Objects Based on Simulation [10.783992625475081]
本稿では,ロボットデキスタラスグルーピングのための大規模シミュレーションデータセットDexGraspNetを提案する。
私たちはShadowHandという、ロボット工学でよく見られる豪華なグリップを使って、5355のオブジェクトに対して123万のグリップを生成します。
GraspIt!が生成した以前のデータセットと比較すると、私たちのデータセットはオブジェクトやグリップだけでなく、多様性や品質も高くなります。
論文 参考訳(メタデータ) (2022-10-06T06:09:16Z) - Grasp Pre-shape Selection by Synthetic Training: Eye-in-hand Shared
Control on the Hannes Prosthesis [6.517935794312337]
RGB 配列から手形前分類を行うための目印学習方式を提案する。
我々は、人間の腕の軌跡のモデルを用いて、眼球設定の特異性に取り組む。
論文 参考訳(メタデータ) (2022-03-18T09:16:48Z) - Universalizing Weak Supervision [18.832796698152492]
ラベルタイプに対して弱い監督を可能にするユニバーサル手法を提案する。
我々は、このテクニックを、ハイパーボリック空間におけるランク付け、回帰、学習を含むWSフレームワークがこれまで取り組まなかった重要な問題に適用する。
論文 参考訳(メタデータ) (2021-12-07T17:59:10Z) - A Deep Learning Generative Model Approach for Image Synthesis of Plant
Leaves [62.997667081978825]
我々は,高度深層学習(DL)技術を用いて,人工葉画像の自動生成を行う。
我々は、現代の作物管理のためのAIアプリケーションのためのトレーニングサンプルのソースを処分することを目指している。
論文 参考訳(メタデータ) (2021-11-05T10:53:35Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。