論文の概要: DexGrasp Anything: Towards Universal Robotic Dexterous Grasping with Physics Awareness
- arxiv url: http://arxiv.org/abs/2503.08257v2
- Date: Sun, 16 Mar 2025 13:05:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:36:43.884529
- Title: DexGrasp Anything: Towards Universal Robotic Dexterous Grasping with Physics Awareness
- Title(参考訳): DexGrasp何か:物理学的認識によるユニバーサルロボットデキステラスグラスピングを目指して
- Authors: Yiming Zhong, Qi Jiang, Jingyi Yu, Yuexin Ma,
- Abstract要約: 汎用的なエンボディロボットの開発には,任意の物体をつかむことのできる器用な手が不可欠である。
DexGrasp Anythingは拡散型生成モデルのトレーニングおよびサンプリングフェーズに物理的制約を統合する手法である。
我々は、15k以上の異なるオブジェクトに対して340万以上の多様なグルーピングポーズを含む、新しいデクスタラスなグルーピングデータセットを提案する。
- 参考スコア(独自算出の注目度): 38.310226324389596
- License:
- Abstract: A dexterous hand capable of grasping any object is essential for the development of general-purpose embodied intelligent robots. However, due to the high degree of freedom in dexterous hands and the vast diversity of objects, generating high-quality, usable grasping poses in a robust manner is a significant challenge. In this paper, we introduce DexGrasp Anything, a method that effectively integrates physical constraints into both the training and sampling phases of a diffusion-based generative model, achieving state-of-the-art performance across nearly all open datasets. Additionally, we present a new dexterous grasping dataset containing over 3.4 million diverse grasping poses for more than 15k different objects, demonstrating its potential to advance universal dexterous grasping. The code of our method and our dataset will be publicly released soon.
- Abstract(参考訳): 汎用的な知能ロボットの開発には,任意の物体をつかむことのできる器用な手が不可欠である。
しかし、器用な手の自由度の高さと多彩な物体の多様さから、高品質で使い勝手の良い握りポーズを強固に生成することは大きな課題である。
本稿では,DexGrasp Anythingについて紹介する。DexGrasp Anythingは拡散型生成モデルのトレーニングとサンプリングのフェーズに物理的制約を効果的に統合し,ほぼすべてのオープンデータセットに対して最先端のパフォーマンスを実現する手法である。
さらに、15k以上のオブジェクトに対して340万以上の多様なグルーピングポーズを含む新しいデクスタラスグルーピングデータセットを提案する。
メソッドとデータセットのコードはまもなく公開されます。
関連論文リスト
- DexterityGen: Foundation Controller for Unprecedented Dexterity [67.15251368211361]
ツール使用など,ロボットの巧妙な操作スキルを教えることは,大きな課題となる。
現在のアプローチは、人間の遠隔操作(模倣学習)とシミュレート・トゥ・リアル強化学習(sim-to-real reinforcement learning)の2つの戦略に大別できる。
本稿では,手動回転や翻訳などの大規模動きプリミティブをRLで事前学習するDexterityGenを紹介する。
現実の世界では、人間の遠隔操作をコントローラーのプロンプトとして利用し、厳密な振る舞いを生み出す。
論文 参考訳(メタデータ) (2025-02-06T18:49:35Z) - Diff9D: Diffusion-Based Domain-Generalized Category-Level 9-DoF Object Pose Estimation [68.81887041766373]
ドメイン一般化9-DoFオブジェクトポーズ推定のための拡散に基づくパラダイムを提案する。
本研究では,9-DoFオブジェクトのポーズ推定を生成的観点から再定義する効果的な拡散モデルを提案する。
提案手法は,最先端の領域一般化性能を実現する。
論文 参考訳(メタデータ) (2025-02-04T17:46:34Z) - Decomposed Vector-Quantized Variational Autoencoder for Human Grasp Generation [27.206656215734295]
本稿では,DVQ-VAE(Decomposed Vector-Quantized Variational Autoencoder)を提案する。
部分認識の分解アーキテクチャは、手とオブジェクトの各コンポーネント間のインタラクションをより正確に管理するのに役立つ。
提案モデルでは,4つのベンチマークにおいて,最先端の手法と比較して,品質指標の14.1%の相対的な改善を実現した。
論文 参考訳(メタデータ) (2024-07-19T06:41:16Z) - GraspXL: Generating Grasping Motions for Diverse Objects at Scale [30.104108863264706]
政策学習フレームワークGraspXLにおいて,複数の動作目標に対して手物体の把握動作の発生を統一する。
58個のオブジェクトでトレーニングされたポリシーは、成功率82.2%の500万以上の未確認オブジェクトに対して、多様な把握動作を堅牢に合成することができる。
私たちのフレームワークは、さまざまな手元にデプロイでき、再構築または生成されたオブジェクトで作業できます。
論文 参考訳(メタデータ) (2024-03-28T17:57:27Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - RealDex: Towards Human-like Grasping for Robotic Dexterous Hand [64.33746404551343]
本稿では,人間の行動パターンを取り入れた手の動きを正確に把握する先駆的データセットであるRealDexを紹介する。
RealDexは、現実のシナリオにおける認識、認識、操作を自動化するためのヒューマノイドロボットを進化させる上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-02-21T14:59:46Z) - UGG: Unified Generative Grasping [41.201337177738075]
オブジェクトに条件付けされたグリーティング姿勢を生成するジェネレーションベースの手法は、しばしば多様なグリーティングを生成する。
我々は,UGGという名前の拡散に基づくデクスタラスグリップ生成モデルを導入する。
本モデルでは,大規模DexGraspNetデータセットを用いて,最先端のデクスタラスグルーピングを実現する。
論文 参考訳(メタデータ) (2023-11-28T16:20:33Z) - DexGraspNet: A Large-Scale Robotic Dexterous Grasp Dataset for General
Objects Based on Simulation [10.783992625475081]
本稿では,ロボットデキスタラスグルーピングのための大規模シミュレーションデータセットDexGraspNetを提案する。
私たちはShadowHandという、ロボット工学でよく見られる豪華なグリップを使って、5355のオブジェクトに対して123万のグリップを生成します。
GraspIt!が生成した以前のデータセットと比較すると、私たちのデータセットはオブジェクトやグリップだけでなく、多様性や品質も高くなります。
論文 参考訳(メタデータ) (2022-10-06T06:09:16Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。