論文の概要: UltraDexGrasp: Learning Universal Dexterous Grasping for Bimanual Robots with Synthetic Data
- arxiv url: http://arxiv.org/abs/2603.05312v1
- Date: Thu, 05 Mar 2026 15:54:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.944738
- Title: UltraDexGrasp: Learning Universal Dexterous Grasping for Bimanual Robots with Synthetic Data
- Title(参考訳): UltraDexGrasp: 合成データを用いた二元ロボットのユニバーサルデキステラスグラスピング学習
- Authors: Sizhe Yang, Yiman Xie, Zhixuan Liang, Yang Tian, Jia Zeng, Dahua Lin, Jiangmiao Pang,
- Abstract要約: 両面ロボットを用いた普遍的デクスタラスグリップのためのフレームワークであるUltraDexGraspを紹介する。
提案したデータ生成パイプラインは、最適化に基づくグリップ合成と計画に基づくデモ生成を統合する。
我々はUltraDexGrasp-20Mに基づいて、点雲を入力とし、一方向の注意を通してシーン特徴を集約し、制御コマンドを予測する、シンプルで効果的な把握ポリシーを開発した。
- 参考スコア(独自算出の注目度): 70.96218513410454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grasping is a fundamental capability for robots to interact with the physical world. Humans, equipped with two hands, autonomously select appropriate grasp strategies based on the shape, size, and weight of objects, enabling robust grasping and subsequent manipulation. In contrast, current robotic grasping remains limited, particularly in multi-strategy settings. Although substantial efforts have targeted parallel-gripper and single-hand grasping, dexterous grasping for bimanual robots remains underexplored, with data being a primary bottleneck. Achieving physically plausible and geometrically conforming grasps that can withstand external wrenches poses significant challenges. To address these issues, we introduce UltraDexGrasp, a framework for universal dexterous grasping with bimanual robots. The proposed data-generation pipeline integrates optimization-based grasp synthesis with planning-based demonstration generation, yielding high-quality and diverse trajectories across multiple grasp strategies. With this framework, we curate UltraDexGrasp-20M, a large-scale, multi-strategy grasp dataset comprising 20 million frames across 1,000 objects. Based on UltraDexGrasp-20M, we further develop a simple yet effective grasp policy that takes point clouds as input, aggregates scene features via unidirectional attention, and predicts control commands. Trained exclusively on synthetic data, the policy achieves robust zero-shot sim-to-real transfer and consistently succeeds on novel objects with varied shapes, sizes, and weights, attaining an average success rate of 81.2% in real-world universal dexterous grasping. To facilitate future research on grasping with bimanual robots, we open-source the data generation pipeline at https://github.com/InternRobotics/UltraDexGrasp.
- Abstract(参考訳): グラスピングは、ロボットが物理的な世界と対話する基本的な能力である。
2つの手を装備した人間は、物体の形状、大きさ、重量に基づいて適切な把握戦略を自律的に選択し、堅牢な把握とその後の操作を可能にする。
対照的に、現在のロボットの把握は、特にマルチストラテジー環境では限られている。
大量の努力が並列グリップと片手での把握を狙ったが、バイマダルロボットの巧妙な把握はいまだに未発見であり、データは主要なボトルネックとなっている。
外部のレンチに耐えうる、物理的に可塑性で幾何学的に整合した把握は、大きな課題となる。
これらの問題に対処するために,両面ロボットによる普遍的デクスタラスグリップのためのフレームワークであるUltraDexGraspを導入する。
提案したデータ生成パイプラインは、最適化に基づくグリップ合成と計画に基づくデモ生成を統合し、複数のグリップ戦略にまたがる高品質で多様な軌道を生成する。
このフレームワークを用いて,1000個のオブジェクトに2000万フレームからなる大規模マルチストラテジーグリップデータセットであるUltraDexGrasp-20Mをキュレートする。
さらに,UltraDexGrasp-20Mに基づいて,点雲を入力とし,一方向の注意を通したシーン特徴を集約し,制御コマンドを予測する,シンプルで効果的な把握ポリシーを開発した。
合成データのみを専門とするこの方針は、堅牢なゼロショットのsim-to-real転送を実現し、様々な形状、大きさ、重量を持つ新しいオブジェクトに対して一貫して成功し、現実世界の普遍的なデクスタリーグルーピングにおける平均成功率は81.2%に達する。
両用ロボットの把握に関する今後の研究を容易にするため,データ生成パイプラインをhttps://github.com/InternRobotics/UltraDexGraspでオープンソース化した。
関連論文リスト
- CEDex: Cross-Embodiment Dexterous Grasp Generation at Scale from Human-like Contact Representations [53.37721117405022]
クロス・エボディメント・デキスタラス・グリップ合成(Cross-Embodiment dexterous grasp synthesis)とは、様々なロボットハンドのグリップを適応的に生成し、最適化することである。
そこで我々は,CEDexを提案する。
これまでで最大のクロス・エボディメント・グラウンド・データセットを構築し、合計20万のグリップを持つ4つのタイプにまたがる500万のオブジェクトからなる。
論文 参考訳(メタデータ) (2025-09-29T12:08:04Z) - RoboTwin 2.0: A Scalable Data Generator and Benchmark with Strong Domain Randomization for Robust Bimanual Robotic Manipulation [52.2244588424002]
我々は,多様かつ現実的なデータの自動生成のためのスケーラブルなフレームワークであるRoboTwin 2.0を紹介する。
コアとなるRoboTwin-ODは、セマンティックおよび操作関連アノテーションを備えた147カテゴリにわたる771インスタンスのオブジェクトライブラリである。
sim-to-real転送を改善するために、RoboTwin 2.0は5つの軸に沿って構造化された領域ランダム化を適用する。
論文 参考訳(メタデータ) (2025-06-22T16:26:53Z) - DexGrasp Anything: Towards Universal Robotic Dexterous Grasping with Physics Awareness [38.310226324389596]
汎用的なエンボディロボットの開発には,任意の物体をつかむことのできる器用な手が不可欠である。
DexGrasp Anythingは拡散型生成モデルのトレーニングおよびサンプリングフェーズに物理的制約を統合する手法である。
我々は、15k以上の異なるオブジェクトに対して340万以上の多様なグルーピングポーズを含む、新しいデクスタラスなグルーピングデータセットを提案する。
論文 参考訳(メタデータ) (2025-03-11T10:21:50Z) - AgiBot World Colosseo: A Large-scale Manipulation Platform for Scalable and Intelligent Embodied Systems [88.05152114775498]
AgiBot Worldは、217のタスクにまたがる100万以上のトラジェクトリを5つのデプロイメントシナリオで構成した大規模なプラットフォームである。
AgiBot Worldは高品質で多様なデータ配信を保証する。
GO-1は、現実世界のデクスタラスタスクや長距離タスクにおいて例外的な能力を示す。
論文 参考訳(メタデータ) (2025-03-09T15:40:29Z) - DexGraspNet: A Large-Scale Robotic Dexterous Grasp Dataset for General
Objects Based on Simulation [10.783992625475081]
本稿では,ロボットデキスタラスグルーピングのための大規模シミュレーションデータセットDexGraspNetを提案する。
私たちはShadowHandという、ロボット工学でよく見られる豪華なグリップを使って、5355のオブジェクトに対して123万のグリップを生成します。
GraspIt!が生成した以前のデータセットと比較すると、私たちのデータセットはオブジェクトやグリップだけでなく、多様性や品質も高くなります。
論文 参考訳(メタデータ) (2022-10-06T06:09:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。