論文の概要: DMFC-GraspNet: Differentiable Multi-Fingered Robotic Grasp Generation in
Cluttered Scenes
- arxiv url: http://arxiv.org/abs/2308.00456v1
- Date: Tue, 1 Aug 2023 11:21:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 14:20:45.683990
- Title: DMFC-GraspNet: Differentiable Multi-Fingered Robotic Grasp Generation in
Cluttered Scenes
- Title(参考訳): DMFC-GraspNet:クラッタシーンにおける微分可能な多指ロボットグラフ生成
- Authors: Philipp Bl\"attner, Johannes Brand, Gerhard Neumann, Ngo Anh Vien
- Abstract要約: マルチフィンガーロボットグリップは、複雑なオブジェクト操作を行う可能性がある。
マルチフィンガーロボットグリップの現在の技術は、推論時間毎に1つのグリップしか予測しないことが多い。
本稿では,この課題に対処するための2つの主要な貢献をした,微分可能なマルチフィンガーグリップ生成ネットワーク(DMFC-GraspNet)を提案する。
- 参考スコア(独自算出の注目度): 16.388470028268916
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Robotic grasping is a fundamental skill required for object manipulation in
robotics. Multi-fingered robotic hands, which mimic the structure of the human
hand, can potentially perform complex object manipulations. Nevertheless,
current techniques for multi-fingered robotic grasping frequently predict only
a single grasp for each inference time, limiting their versatility and
efficiency. This paper proposes a differentiable multi-fingered grasp
generation network (DMFC-GraspNet) with two main contributions to address this
challenge. Firstly, a novel neural grasp planner is proposed, which predicts a
new grasp representation to enable versatile and dense grasp predictions.
Secondly, a scene creation and label mapping method is developed for dense
labeling of multi-fingered robotic hands, which allows a dense association of
ground truth grasps. The proposed approach is evaluated through simulation
studies and compared to existing approaches. The results demonstrate the
effectiveness of the proposed approach in predicting versatile and dense
grasps, and in advancing the field of robotic grasping.
- Abstract(参考訳): ロボットハンドリングは、ロボットのオブジェクト操作に必要な基本的なスキルである。
人間の手の構造を模倣する多指ロボットハンドは、複雑なオブジェクト操作を行う可能性がある。
しかしながら、現在のマルチフィンガーロボットグリップ技術は、推論時間毎に1つのグリップしか予測せず、その汎用性と効率を制限している。
本稿では,この課題に主に2つの貢献をした微分可能多指把持生成ネットワーク(dmfc-graspnet)を提案する。
まず, 広義かつ密集した把握予測を可能にする新しい把握表現を予測できるニューラル・グラブ・プランナーを提案する。
第二に, 多指ロボットハンドの密なラベリングのためのシーン作成とラベルマッピング手法を開発し, 基底真理の密結合を可能にした。
提案手法をシミュレーション研究により評価し,既存手法と比較した。
提案手法は, 汎用性, 密集度を予測し, ロボットグルーピングの分野を推し進める上で有効であることを示す。
関連論文リスト
- Multi-Transmotion: Pre-trained Model for Human Motion Prediction [68.87010221355223]
マルチトランスモーション(Multi-Transmotion)は、モダリティ事前トレーニング用に設計された革新的なトランスフォーマーベースのモデルである。
提案手法は,下流タスクにおける各種データセット間の競合性能を示す。
論文 参考訳(メタデータ) (2024-11-04T23:15:21Z) - Decomposed Vector-Quantized Variational Autoencoder for Human Grasp Generation [27.206656215734295]
本稿では,DVQ-VAE(Decomposed Vector-Quantized Variational Autoencoder)を提案する。
部分認識の分解アーキテクチャは、手とオブジェクトの各コンポーネント間のインタラクションをより正確に管理するのに役立つ。
提案モデルでは,4つのベンチマークにおいて,最先端の手法と比較して,品質指標の14.1%の相対的な改善を実現した。
論文 参考訳(メタデータ) (2024-07-19T06:41:16Z) - CMG-Net: An End-to-End Contact-Based Multi-Finger Dexterous Grasping
Network [25.879649629474212]
乱雑な環境下で未知の物体を把握するための有効なエンドツーエンドネットワークであるCMG-Netを提案する。
5万の散らばったシーン、80のオブジェクトカテゴリ、2000万のアノテーションからなる、総合的な把握データセットを作成します。
私たちの研究は、3本指のロボットハンドの最先端技術を大きく上回っている。
論文 参考訳(メタデータ) (2023-03-23T11:29:31Z) - Deep Functional Predictive Control for Strawberry Cluster Manipulation
using Tactile Prediction [6.365634303789478]
本稿では,ロボットプッシュタスクにおけるPRI(Physical Robot Interaction)の問題に対処するための新しいアプローチを提案する。
このアプローチでは、触覚予測に基づくデータ駆動のフォワードモデルを使用して、プッシュされるオブジェクトの将来的な動きについてコントローラに通知する。
論文 参考訳(メタデータ) (2023-03-09T16:31:35Z) - Hybrid Physical Metric For 6-DoF Grasp Pose Detection [46.84694505427047]
6-DoFグリップポーズ検出のための高精細な信頼スコアを生成するためのハイブリッド物理測度を提案する。
新しい信頼度スコアを効果的に学習するために、Flatness Gravity Collision GraspNetと呼ばれるマルチレゾリューションネットワークを設計する。
本手法は現実世界の散らばったシーンにおいて90.5%の成功率を達成する。
論文 参考訳(メタデータ) (2022-06-22T14:35:48Z) - Intelligent Trajectory Design for RIS-NOMA aided Multi-robot
Communications [59.34642007625687]
目的は,ロボットの軌道とNOMA復号命令を協調的に最適化することで,マルチロボットシステムにおける全軌道の総和率を最大化することである。
ARIMAモデルとDouble Deep Q-network (D$3$QN)アルゴリズムを組み合わせたML方式を提案する。
論文 参考訳(メタデータ) (2022-05-03T17:14:47Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Enhancing Multi-Robot Perception via Learned Data Association [37.866254392010454]
本稿では,マルチロボット協調認識問題,特に分散セマンティックセグメンテーションにおけるマルチビューインフィル問題に対処する。
本稿では,ロボット群において各エージェントにデプロイ可能なニューラルネットワークであるMulti-Agent Infilling Networkを提案する。
具体的には、各ロボットが視覚情報を局所的に符号化・復号し、ニューラルメカニズムにより、不確実性を認識し、文脈に基づく中間特徴の交換を可能にする。
論文 参考訳(メタデータ) (2021-07-01T22:45:26Z) - Kimera-Multi: Robust, Distributed, Dense Metric-Semantic SLAM for
Multi-Robot Systems [92.26462290867963]
Kimera-Multiは、最初のマルチロボットシステムであり、不正なインターループとイントラロボットループの閉鎖を識別し拒否することができる。
我々は、フォトリアリスティックシミュレーション、SLAMベンチマークデータセット、地上ロボットを用いて収集された屋外データセットの挑戦において、Kimera-Multiを実証した。
論文 参考訳(メタデータ) (2021-06-28T03:56:40Z) - Kimera-Multi: a System for Distributed Multi-Robot Metric-Semantic
Simultaneous Localization and Mapping [57.173793973480656]
本稿では,高密度メカニカル・セマンティックSLAMのための完全分散マルチロボットシステムを提案する。
私たちのシステムはKimera-Multiと呼ばれ、視覚慣性センサーを備えたロボットチームによって実装されています。
Kimera-Multiは環境の3Dメッシュモデルをリアルタイムで構築し、メッシュの各面にセマンティックラベルをアノテートする。
論文 参考訳(メタデータ) (2020-11-08T21:38:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。