論文の概要: DMFC-GraspNet: Differentiable Multi-Fingered Robotic Grasp Generation in
Cluttered Scenes
- arxiv url: http://arxiv.org/abs/2308.00456v2
- Date: Wed, 16 Aug 2023 20:53:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 22:38:26.339398
- Title: DMFC-GraspNet: Differentiable Multi-Fingered Robotic Grasp Generation in
Cluttered Scenes
- Title(参考訳): DMFC-GraspNet:クラッタシーンにおける微分可能な多指ロボットグラフ生成
- Authors: Philipp Bl\"attner, Johannes Brand, Gerhard Neumann, Ngo Anh Vien
- Abstract要約: マルチフィンガーロボットグリップは、複雑なオブジェクト操作を行う可能性がある。
マルチフィンガーロボットグリップの現在の技術は、推論時間毎に1つのグリップしか予測しないことが多い。
本稿では,この課題に対処するための3つの主要なコントリビューションを持つ,微分可能なマルチフィンガーグリップ生成ネットワーク(DMFC-GraspNet)を提案する。
- 参考スコア(独自算出の注目度): 22.835683657191936
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Robotic grasping is a fundamental skill required for object manipulation in
robotics. Multi-fingered robotic hands, which mimic the structure of the human
hand, can potentially perform complex object manipulation. Nevertheless,
current techniques for multi-fingered robotic grasping frequently predict only
a single grasp for each inference time, limiting computational efficiency and
their versatility, i.e. unimodal grasp distribution. This paper proposes a
differentiable multi-fingered grasp generation network (DMFC-GraspNet) with
three main contributions to address this challenge. Firstly, a novel neural
grasp planner is proposed, which predicts a new grasp representation to enable
versatile and dense grasp predictions. Secondly, a scene creation and label
mapping method is developed for dense labeling of multi-fingered robotic hands,
which allows a dense association of ground truth grasps. Thirdly, we propose to
train DMFC-GraspNet end-to-end using using a forward-backward automatic
differentiation approach with both a supervised loss and a differentiable
collision loss and a generalized Q 1 grasp metric loss. The proposed approach
is evaluated using the Shadow Dexterous Hand on Mujoco simulation and ablated
by different choices of loss functions. The results demonstrate the
effectiveness of the proposed approach in predicting versatile and dense
grasps, and in advancing the field of multi-fingered robotic grasping.
- Abstract(参考訳): ロボットハンドリングは、ロボットのオブジェクト操作に必要な基本的なスキルである。
人間の手の構造を模倣する多指ロボットハンドは、複雑な物体操作を行う可能性がある。
それにもかかわらず、近年のマルチフィンガーロボット把持技術では、計算効率と汎用性、すなわちユニモーダル把持分布を制限し、推論時間毎に1つの把持のみを頻繁に予測している。
本稿では,この課題に対する3つの貢献点を有する多指把持生成ネットワーク(dmfc-graspnet)を提案する。
まず, 広義かつ密集した把握予測を可能にする新しい把握表現を予測できるニューラル・グラブ・プランナーを提案する。
第二に, 多指ロボットハンドの密なラベリングのためのシーン作成とラベルマッピング手法を開発し, 基底真理の密結合を可能にした。
第3に、教師付き損失と微分可能な衝突損失と一般化Q1把握量損失の両方を用いて、前向き自動微分手法を用いてDMFC-GraspNetエンドツーエンドのトレーニングを提案する。
提案手法は,ムジョコシミュレーションにおけるシャドウデクスタラスハンドを用いて評価し,損失関数の異なる選択により評価した。
提案手法は,多目的・密集的把握の予測や,多指ロボットグリップの分野の進展に有効であることを示す。
関連論文リスト
- Multi-Transmotion: Pre-trained Model for Human Motion Prediction [68.87010221355223]
マルチトランスモーション(Multi-Transmotion)は、モダリティ事前トレーニング用に設計された革新的なトランスフォーマーベースのモデルである。
提案手法は,下流タスクにおける各種データセット間の競合性能を示す。
論文 参考訳(メタデータ) (2024-11-04T23:15:21Z) - Decomposed Vector-Quantized Variational Autoencoder for Human Grasp Generation [27.206656215734295]
本稿では,DVQ-VAE(Decomposed Vector-Quantized Variational Autoencoder)を提案する。
部分認識の分解アーキテクチャは、手とオブジェクトの各コンポーネント間のインタラクションをより正確に管理するのに役立つ。
提案モデルでは,4つのベンチマークにおいて,最先端の手法と比較して,品質指標の14.1%の相対的な改善を実現した。
論文 参考訳(メタデータ) (2024-07-19T06:41:16Z) - CMG-Net: An End-to-End Contact-Based Multi-Finger Dexterous Grasping
Network [25.879649629474212]
乱雑な環境下で未知の物体を把握するための有効なエンドツーエンドネットワークであるCMG-Netを提案する。
5万の散らばったシーン、80のオブジェクトカテゴリ、2000万のアノテーションからなる、総合的な把握データセットを作成します。
私たちの研究は、3本指のロボットハンドの最先端技術を大きく上回っている。
論文 参考訳(メタデータ) (2023-03-23T11:29:31Z) - Deep Functional Predictive Control for Strawberry Cluster Manipulation
using Tactile Prediction [6.365634303789478]
本稿では,ロボットプッシュタスクにおけるPRI(Physical Robot Interaction)の問題に対処するための新しいアプローチを提案する。
このアプローチでは、触覚予測に基づくデータ駆動のフォワードモデルを使用して、プッシュされるオブジェクトの将来的な動きについてコントローラに通知する。
論文 参考訳(メタデータ) (2023-03-09T16:31:35Z) - Hybrid Physical Metric For 6-DoF Grasp Pose Detection [46.84694505427047]
6-DoFグリップポーズ検出のための高精細な信頼スコアを生成するためのハイブリッド物理測度を提案する。
新しい信頼度スコアを効果的に学習するために、Flatness Gravity Collision GraspNetと呼ばれるマルチレゾリューションネットワークを設計する。
本手法は現実世界の散らばったシーンにおいて90.5%の成功率を達成する。
論文 参考訳(メタデータ) (2022-06-22T14:35:48Z) - Intelligent Trajectory Design for RIS-NOMA aided Multi-robot
Communications [59.34642007625687]
目的は,ロボットの軌道とNOMA復号命令を協調的に最適化することで,マルチロボットシステムにおける全軌道の総和率を最大化することである。
ARIMAモデルとDouble Deep Q-network (D$3$QN)アルゴリズムを組み合わせたML方式を提案する。
論文 参考訳(メタデータ) (2022-05-03T17:14:47Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Enhancing Multi-Robot Perception via Learned Data Association [37.866254392010454]
本稿では,マルチロボット協調認識問題,特に分散セマンティックセグメンテーションにおけるマルチビューインフィル問題に対処する。
本稿では,ロボット群において各エージェントにデプロイ可能なニューラルネットワークであるMulti-Agent Infilling Networkを提案する。
具体的には、各ロボットが視覚情報を局所的に符号化・復号し、ニューラルメカニズムにより、不確実性を認識し、文脈に基づく中間特徴の交換を可能にする。
論文 参考訳(メタデータ) (2021-07-01T22:45:26Z) - Kimera-Multi: Robust, Distributed, Dense Metric-Semantic SLAM for
Multi-Robot Systems [92.26462290867963]
Kimera-Multiは、最初のマルチロボットシステムであり、不正なインターループとイントラロボットループの閉鎖を識別し拒否することができる。
我々は、フォトリアリスティックシミュレーション、SLAMベンチマークデータセット、地上ロボットを用いて収集された屋外データセットの挑戦において、Kimera-Multiを実証した。
論文 参考訳(メタデータ) (2021-06-28T03:56:40Z) - Kimera-Multi: a System for Distributed Multi-Robot Metric-Semantic
Simultaneous Localization and Mapping [57.173793973480656]
本稿では,高密度メカニカル・セマンティックSLAMのための完全分散マルチロボットシステムを提案する。
私たちのシステムはKimera-Multiと呼ばれ、視覚慣性センサーを備えたロボットチームによって実装されています。
Kimera-Multiは環境の3Dメッシュモデルをリアルタイムで構築し、メッシュの各面にセマンティックラベルをアノテートする。
論文 参考訳(メタデータ) (2020-11-08T21:38:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。