論文の概要: Hybrid Physical Metric For 6-DoF Grasp Pose Detection
- arxiv url: http://arxiv.org/abs/2206.11141v1
- Date: Wed, 22 Jun 2022 14:35:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 14:52:50.307810
- Title: Hybrid Physical Metric For 6-DoF Grasp Pose Detection
- Title(参考訳): 6自由度姿勢検出のためのハイブリッド物理指標
- Authors: Yuhao Lu, Beixing Deng, Zhenyu Wang, Peiyuan Zhi, Yali Li, Shengjin
Wang
- Abstract要約: 6-DoFグリップポーズ検出のための高精細な信頼スコアを生成するためのハイブリッド物理測度を提案する。
新しい信頼度スコアを効果的に学習するために、Flatness Gravity Collision GraspNetと呼ばれるマルチレゾリューションネットワークを設計する。
本手法は現実世界の散らばったシーンにおいて90.5%の成功率を達成する。
- 参考スコア(独自算出の注目度): 46.84694505427047
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 6-DoF grasp pose detection of multi-grasp and multi-object is a challenge
task in the field of intelligent robot. To imitate human reasoning ability for
grasping objects, data driven methods are widely studied. With the introduction
of large-scale datasets, we discover that a single physical metric usually
generates several discrete levels of grasp confidence scores, which cannot
finely distinguish millions of grasp poses and leads to inaccurate prediction
results. In this paper, we propose a hybrid physical metric to solve this
evaluation insufficiency. First, we define a novel metric is based on the
force-closure metric, supplemented by the measurement of the object flatness,
gravity and collision. Second, we leverage this hybrid physical metric to
generate elaborate confidence scores. Third, to learn the new confidence scores
effectively, we design a multi-resolution network called Flatness Gravity
Collision GraspNet (FGC-GraspNet). FGC-GraspNet proposes a multi-resolution
features learning architecture for multiple tasks and introduces a new joint
loss function that enhances the average precision of the grasp detection. The
network evaluation and adequate real robot experiments demonstrate the
effectiveness of our hybrid physical metric and FGC-GraspNet. Our method
achieves 90.5\% success rate in real-world cluttered scenes. Our code is
available at https://github.com/luyh20/FGC-GraspNet.
- Abstract(参考訳): 6自由度把持姿勢検出は知的ロボットの分野における課題課題である。
物体をつかむ人間の推論能力を模倣するために、データ駆動手法が広く研究されている。
大規模データセットの導入により、単一の物理メトリックは、通常、数百万の把持ポーズを微妙に区別できず、不正確な予測結果をもたらす、いくつかの離散的な把持信頼度スコアを生成することが判明した。
本稿では,この評価不足を解決するためのハイブリッド物理指標を提案する。
まず, 物体の平坦度, 重力, 衝突の測定によって補足される, 力-閉鎖距離に基づく新しい計量を定義する。
第二に、このハイブリッド物理測度を利用して、精巧な信頼性スコアを生成する。
第3に、新しい信頼度を効果的に学習するために、FGC-GraspNet(Flatness Gravity Collision GraspNet)と呼ばれるマルチ解像度ネットワークを設計する。
fgc-graspnetは複数のタスクのためのマルチレゾリューション特徴学習アーキテクチャを提案し、把持検出の平均精度を高める新しいジョイント損失関数を導入した。
ネットワーク評価と適切な実ロボット実験は、我々のハイブリッド物理メトリックとFGC-GraspNetの有効性を示す。
本手法は実世界の乱雑なシーンにおいて90.5%の成功率を達成する。
私たちのコードはhttps://github.com/luyh20/fgc-graspnetで利用可能です。
関連論文リスト
- SEMPose: A Single End-to-end Network for Multi-object Pose Estimation [13.131534219937533]
SEMPoseは、エンドツーエンドの多目的ポーズ推定ネットワークである。
RGB画像以外の入力を必要とせずに32FPSで推論を行うことができる。
複数のオブジェクトのポーズをリアルタイムで正確に推定でき、対象オブジェクトの数の影響を受けない推論時間に影響を及ぼす。
論文 参考訳(メタデータ) (2024-11-21T10:37:54Z) - Graspness Discovery in Clutters for Fast and Accurate Grasp Detection [57.81325062171676]
グレープネス(graspness)とは、散らばった場面で把握可能な領域を区別する幾何学的手がかりに基づく品質である。
本研究では,探索過程を近似するカスケード把握モデルを構築した。
大規模なベンチマークであるGraspNet-1Billionの実験では,提案手法が従来の手法よりも大きなマージンで優れていたことが示されている。
論文 参考訳(メタデータ) (2024-06-17T02:06:47Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Probabilistic MIMO U-Net: Efficient and Accurate Uncertainty Estimation
for Pixel-wise Regression [1.4528189330418977]
機械学習における不確実性推定は、予測モデルの信頼性と解釈可能性を高めるための最重要課題である。
画素ワイド回帰タスクに対するMIMO(Multiple-Input Multiple-Output)フレームワークの適応について述べる。
論文 参考訳(メタデータ) (2023-08-14T22:08:28Z) - DMFC-GraspNet: Differentiable Multi-Fingered Robotic Grasp Generation in
Cluttered Scenes [22.835683657191936]
マルチフィンガーロボットグリップは、複雑なオブジェクト操作を行う可能性がある。
マルチフィンガーロボットグリップの現在の技術は、推論時間毎に1つのグリップしか予測しないことが多い。
本稿では,この課題に対処するための3つの主要なコントリビューションを持つ,微分可能なマルチフィンガーグリップ生成ネットワーク(DMFC-GraspNet)を提案する。
論文 参考訳(メタデータ) (2023-08-01T11:21:07Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Learning suction graspability considering grasp quality and robot
reachability for bin-picking [4.317666242093779]
直感的な幾何学的解析に基づくグリップ品質評価指標を提案する。
さらに,到達可能性評価指標を取り入れた。
実験結果から,直感的に把握できる品質評価基準は,物理的に着想を得た指標と競合することがわかった。
論文 参考訳(メタデータ) (2021-11-04T00:55:42Z) - Fast Uncertainty Quantification for Deep Object Pose Estimation [91.09217713805337]
深層学習に基づくオブジェクトポーズ推定は、しばしば信頼できない、自信過剰である。
本研究では,6-DoFオブジェクトのポーズ推定のための,シンプルで効率的かつプラグアンドプレイなUQ手法を提案する。
論文 参考訳(メタデータ) (2020-11-16T06:51:55Z) - Learning a Unified Sample Weighting Network for Object Detection [113.98404690619982]
地域サンプリングや重み付けは、現代の地域ベースの物体検出器の成功に極めて重要である。
サンプル重み付けはデータ依存でタスク依存であるべきだと我々は主張する。
サンプルのタスク重みを予測するための統一的なサンプル重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2020-06-11T16:19:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。