論文の概要: DexGraspNet: A Large-Scale Robotic Dexterous Grasp Dataset for General
Objects Based on Simulation
- arxiv url: http://arxiv.org/abs/2210.02697v1
- Date: Thu, 6 Oct 2022 06:09:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 17:29:11.018778
- Title: DexGraspNet: A Large-Scale Robotic Dexterous Grasp Dataset for General
Objects Based on Simulation
- Title(参考訳): dexgraspnet: シミュレーションに基づく汎用オブジェクトのための大規模ロボットデクスタース把持データセット
- Authors: Ruicheng Wang, Jialiang Zhang, Jiayi Chen, Yinzhen Xu, Puhao Li,
Tengyu Liu, He Wang
- Abstract要約: 本稿では,ロボットデキスタラスグルーピングのための大規模シミュレーションデータセットDexGraspNetを提案する。
私たちはShadowHandという、ロボット工学でよく見られる豪華なグリップを使って、5355のオブジェクトに対して123万のグリップを生成します。
GraspIt!が生成した以前のデータセットと比較すると、私たちのデータセットはオブジェクトやグリップだけでなく、多様性や品質も高くなります。
- 参考スコア(独自算出の注目度): 10.783992625475081
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object grasping using dexterous hands is a crucial yet challenging task for
robotic dexterous manipulation. Compared with the field of object grasping with
parallel grippers, dexterous grasping is very under-explored, partially owing
to the lack of a large-scale dataset. In this work, we present a large-scale
simulated dataset, DexGraspNet, for robotic dexterous grasping, along with a
highly efficient synthesis method for diverse dexterous grasping synthesis.
Leveraging a highly accelerated differentiable force closure estimator, we, for
the first time, are able to synthesize stable and diverse grasps efficiently
and robustly. We choose ShadowHand, a dexterous gripper commonly seen in
robotics, and generated 1.32 million grasps for 5355 objects, covering more
than 133 object categories and containing more than 200 diverse grasps for each
object instance, with all grasps having been validated by the physics
simulator. Compared to the previous dataset generated by GraspIt!, our dataset
has not only more objects and grasps, but also higher diversity and quality.
Via performing cross-dataset experiments, we show that training several
algorithms of dexterous grasp synthesis on our datasets significantly
outperforms training on the previous one, demonstrating the large scale and
diversity of DexGraspNet. We will release the data and tools upon acceptance.
- Abstract(参考訳): 器用な手を使って物体をつかむことは、ロボットの器用な操作にとって重要な課題である。
並列グリップパーを用いた物体把握の分野と比較すると,大規模なデータセットが欠如していることから,デクスタラスグリップは非常に過小評価されている。
本研究では,ロボットによるデキスタラスハンドリングのための大規模シミュレーションデータセットdexgraspnetと,多様なデキスタラスハンドリング合成のための高効率合成手法を提案する。
高度に加速された微分可能な力の閉鎖推定装置を利用することで、我々は初めて安定かつ多様な把持を効率的かつロバストに合成することができる。
我々はロボット工学で一般的に見られるデクタブルなグリッパーであるshadowhandを選択し、5355個の物体に対して1303万のグリップを生成し、各オブジェクトインスタンスに200以上の多様なグリップを含む133のオブジェクトカテゴリをカバーし、全てのグリップが物理シミュレーターによって検証されている。
GraspIt!が生成した以前のデータセットと比較すると、私たちのデータセットはオブジェクトやグリップだけでなく、多様性や品質も高くなります。
データセット間実験を行った結果,データセット上でのデクスタリーグリップ合成のアルゴリズムの訓練は,DexGraspNetの大規模化と多様性を実証し,前者よりも大幅に優れていたことがわかった。
受け入れ次第、データとツールをリリースします。
関連論文リスト
- Bimanual Grasp Synthesis for Dexterous Robot Hands [1.9567015559455132]
本稿では,バイマングリップを3次元オブジェクトに合成するBimanGraspアルゴリズムを提案する。
BimanGraspアルゴリズムは、エネルギー関数を最適化して把握ポーズを生成する。
合成したグリップは、Isaac Gym物理シミュレーションエンジンを用いて検証される。
論文 参考訳(メタデータ) (2024-11-24T16:31:17Z) - DexMimicGen: Automated Data Generation for Bimanual Dexterous Manipulation via Imitation Learning [42.88605563822155]
本稿では,人間の手による人型ロボットの人体実験からトラジェクトリを合成する大規模自動データ生成システムを提案する。
私たちは、たった60のソースの人間デモから、これらのタスク全体で21Kのデモを生成します。
また、実世界のヒューマノイド缶ソートタスクに、実世界のシミュレート・トゥ・リアルパイプラインを配置する。
論文 参考訳(メタデータ) (2024-10-31T17:48:45Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - AGILE: Approach-based Grasp Inference Learned from Element Decomposition [2.812395851874055]
人間は手動の位置情報を考慮して物体を把握できる。
本研究は、ロボットマニピュレータが物体を最も最適な方法で把握し、同じことを学べるようにする方法を提案する。
論文 参考訳(メタデータ) (2024-02-02T10:47:08Z) - Towards Precise Model-free Robotic Grasping with Sim-to-Real Transfer
Learning [11.470950882435927]
本稿では,ロボットの把持ネットワークについて述べる。
物理ロボット実験では,1つの既知の物体と,90.91%の成功率を持つ新しい複合形状の家庭用物体を把握した。
提案した把握フレームワークは、既知の物体と未知の物体の両方において、最先端の2つの手法より優れていた。
論文 参考訳(メタデータ) (2023-01-28T16:57:19Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - DA$^2$ Dataset: Toward Dexterity-Aware Dual-Arm Grasping [58.48762955493929]
DA$2$は、任意の大物体に対して最適な2次元グリップペアを生成するための、最初の大規模デュアルアームデキスタリティ対応データセットである。
データセットには、6000以上のオブジェクトから生成される約9万組のパラレルジャウグリップが含まれている。
論文 参考訳(メタデータ) (2022-07-31T10:02:27Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - ACRONYM: A Large-Scale Grasp Dataset Based on Simulation [64.37675024289857]
ACRONYMは物理シミュレーションに基づくロボットグリップ計画のためのデータセットである。
データセットには17.7Mのパラレルジャウグリップが含まれ、262の異なるカテゴリから8872のオブジェクトにまたがっている。
我々は、この大規模で多様なデータセットの価値を、2つの最先端の学習に基づく把握計画アルゴリズムの訓練に利用することで示す。
論文 参考訳(メタデータ) (2020-11-18T23:24:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。