論文の概要: CMG-Net: An End-to-End Contact-Based Multi-Finger Dexterous Grasping
Network
- arxiv url: http://arxiv.org/abs/2303.13182v1
- Date: Thu, 23 Mar 2023 11:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 14:47:45.929603
- Title: CMG-Net: An End-to-End Contact-Based Multi-Finger Dexterous Grasping
Network
- Title(参考訳): cmg-net : エンド・ツー・エンドのコンタクトベース・マルチフィンガー・デクスタース把持ネットワーク
- Authors: Mingze Wei, Yaomin Huang, Zhiyuan Xu, Ning Liu, Zhengping Che, Xinyu
Zhang, Chaomin Shen, Feifei Feng, Chun Shan, Jian Tang
- Abstract要約: 乱雑な環境下で未知の物体を把握するための有効なエンドツーエンドネットワークであるCMG-Netを提案する。
5万の散らばったシーン、80のオブジェクトカテゴリ、2000万のアノテーションからなる、総合的な把握データセットを作成します。
私たちの研究は、3本指のロボットハンドの最先端技術を大きく上回っている。
- 参考スコア(独自算出の注目度): 25.879649629474212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel representation for grasping using contacts
between multi-finger robotic hands and objects to be manipulated. This
representation significantly reduces the prediction dimensions and accelerates
the learning process. We present an effective end-to-end network, CMG-Net, for
grasping unknown objects in a cluttered environment by efficiently predicting
multi-finger grasp poses and hand configurations from a single-shot point
cloud. Moreover, we create a synthetic grasp dataset that consists of five
thousand cluttered scenes, 80 object categories, and 20 million annotations. We
perform a comprehensive empirical study and demonstrate the effectiveness of
our grasping representation and CMG-Net. Our work significantly outperforms the
state-of-the-art for three-finger robotic hands. We also demonstrate that the
model trained using synthetic data performs very well for real robots.
- Abstract(参考訳): 本稿では,多指ロボットハンドと操作対象との接触をつかむための新しい表現を提案する。
この表現は予測次元を大幅に削減し、学習プロセスを加速する。
マルチフィンガーグリップポーズとハンド設定を単一ショットポイントクラウドから効率的に予測し,未知の物体を散らかした環境で把握する有効なエンドツーエンドネットワークCMG-Netを提案する。
さらに,5千の散らばったシーン,80のオブジェクトカテゴリ,2000万のアノテーションからなる合成把握データセットを作成する。
我々は,包括的実証研究を行い,把持表現とcmg-netの有効性を実証する。
私たちの研究は、3本指のロボットハンドの最先端を著しく上回っている。
また,合成データを用いてトレーニングしたモデルが実ロボットに非常に有効であることも実証した。
関連論文リスト
- Synatra: Turning Indirect Knowledge into Direct Demonstrations for Digital Agents at Scale [97.21851531607811]
LLMは、デジタル環境と対話し、特定の目的を完遂する自律エージェントとして機能する。
デジタルタスクに対する大規模な直接的なデモが欠如していることもあって、正確性はまだ十分ではない。
我々は、この間接的な知識を大規模に直接監督するアプローチであるSynatraを提案する。
論文 参考訳(メタデータ) (2024-09-24T00:51:45Z) - Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - HRP: Human Affordances for Robotic Pre-Training [15.92416819748365]
本稿では,手,物,接触の事前学習のためのフレームワークを提案する。
実世界の5つのタスクにおいて、この空き時間事前学習がパフォーマンスを最低15%向上させることを実験的に実証した(3000以上のロボット試験を用いて)。
論文 参考訳(メタデータ) (2024-07-26T17:59:52Z) - MimicGen: A Data Generation System for Scalable Robot Learning using
Human Demonstrations [55.549956643032836]
MimicGenは、少数の人間のデモから大規模でリッチなデータセットを自動的に合成するシステムである。
ロボットエージェントは,この生成したデータセットを模倣学習により効果的に訓練し,長期的・高精度なタスクにおいて高い性能を達成することができることを示す。
論文 参考訳(メタデータ) (2023-10-26T17:17:31Z) - DMFC-GraspNet: Differentiable Multi-Fingered Robotic Grasp Generation in
Cluttered Scenes [22.835683657191936]
マルチフィンガーロボットグリップは、複雑なオブジェクト操作を行う可能性がある。
マルチフィンガーロボットグリップの現在の技術は、推論時間毎に1つのグリップしか予測しないことが多い。
本稿では,この課題に対処するための3つの主要なコントリビューションを持つ,微分可能なマルチフィンガーグリップ生成ネットワーク(DMFC-GraspNet)を提案する。
論文 参考訳(メタデータ) (2023-08-01T11:21:07Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。