論文の概要: Graspness Discovery in Clutters for Fast and Accurate Grasp Detection
- arxiv url: http://arxiv.org/abs/2406.11142v1
- Date: Mon, 17 Jun 2024 02:06:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 18:43:55.332955
- Title: Graspness Discovery in Clutters for Fast and Accurate Grasp Detection
- Title(参考訳): 高速かつ高精度な粒度検出のためのクラッタ内の粒度検出
- Authors: Chenxi Wang, Hao-Shu Fang, Minghao Gou, Hongjie Fang, Jin Gao, Cewu Lu,
- Abstract要約: グレープネス(graspness)とは、散らばった場面で把握可能な領域を区別する幾何学的手がかりに基づく品質である。
本研究では,探索過程を近似するカスケード把握モデルを構築した。
大規模なベンチマークであるGraspNet-1Billionの実験では,提案手法が従来の手法よりも大きなマージンで優れていたことが示されている。
- 参考スコア(独自算出の注目度): 57.81325062171676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient and robust grasp pose detection is vital for robotic manipulation. For general 6 DoF grasping, conventional methods treat all points in a scene equally and usually adopt uniform sampling to select grasp candidates. However, we discover that ignoring where to grasp greatly harms the speed and accuracy of current grasp pose detection methods. In this paper, we propose "graspness", a quality based on geometry cues that distinguishes graspable areas in cluttered scenes. A look-ahead searching method is proposed for measuring the graspness and statistical results justify the rationality of our method. To quickly detect graspness in practice, we develop a neural network named cascaded graspness model to approximate the searching process. Extensive experiments verify the stability, generality and effectiveness of our graspness model, allowing it to be used as a plug-and-play module for different methods. A large improvement in accuracy is witnessed for various previous methods after equipping our graspness model. Moreover, we develop GSNet, an end-to-end network that incorporates our graspness model for early filtering of low-quality predictions. Experiments on a large-scale benchmark, GraspNet-1Billion, show that our method outperforms previous arts by a large margin (30+ AP) and achieves a high inference speed. The library of GSNet has been integrated into AnyGrasp, which is at https://github.com/graspnet/anygrasp_sdk.
- Abstract(参考訳): ロボット操作には、効率的で堅牢なグリップポーズ検出が不可欠である。
一般的な6つのDoFグルーピングでは、従来の方法ではシーン内のすべての点を等しく扱い、通常、一様サンプリングを用いてグルーピング候補を選択する。
しかし、把握すべき場所を無視することは、現在の把握ポーズ検出手法の速度と精度を著しく損なうことが判明した。
本稿では,散らばったシーンにおける把握可能な領域を識別する幾何学的手がかりに基づく質の「グラッピーネス」を提案する。
本手法の合理性を正当に把握し, 統計的に評価するために, ルックアヘッド探索法を提案する。
実際に把握性を迅速に検出するために,探索過程を近似するカスケード把握モデルを構築した。
広汎な実験により, 把握モデルの安定性, 汎用性, 有効性を検証し, 異なる手法のプラグアンドプレイモジュールとして使用することができる。
我々の把握度モデルに載った後、様々な従来手法の精度が大幅に向上するのを目撃する。
さらに,低品質な予測を早期にフィルタリングするための把握性モデルを組み込んだエンドツーエンドネットワークであるGSNetを開発した。
大規模ベンチマークであるGraspNet-1Billionの実験により,提案手法は従来よりも30以上の差(30以上のAP)で性能が向上し,推論速度が向上することを示した。
GSNetのライブラリは、https://github.com/graspnet/anygrasp_sdkにあるAnyGraspに統合されている。
関連論文リスト
- Normality Learning-based Graph Anomaly Detection via Multi-Scale
Contrastive Learning [61.57383634677747]
グラフ異常検出(GAD)は、機械学習やデータマイニングにおいて注目を集めている。
本稿では,マルチスケールコントラスト学習ネットワーク(NLGAD,略語)による正規性学習に基づくGADフレームワークを提案する。
特に,提案アルゴリズムは,最先端手法と比較して検出性能(最大5.89%のAUCゲイン)を向上させる。
論文 参考訳(メタデータ) (2023-09-12T08:06:04Z) - Calibrating the Rigged Lottery: Making All Tickets Reliable [14.353428281239665]
信頼性校正を改善したスパースモデルを生成するための新しいスパーストレーニング手法を提案する。
本手法は,計算量や記憶負荷をわずかに増加させるだけで,同時に精度を向上する。
論文 参考訳(メタデータ) (2023-02-18T15:53:55Z) - Hybrid Physical Metric For 6-DoF Grasp Pose Detection [46.84694505427047]
6-DoFグリップポーズ検出のための高精細な信頼スコアを生成するためのハイブリッド物理測度を提案する。
新しい信頼度スコアを効果的に学習するために、Flatness Gravity Collision GraspNetと呼ばれるマルチレゾリューションネットワークを設計する。
本手法は現実世界の散らばったシーンにおいて90.5%の成功率を達成する。
論文 参考訳(メタデータ) (2022-06-22T14:35:48Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - GKNet: grasp keypoint network for grasp candidates detection [15.214390498300101]
本稿では、キーポイント検出として扱うことにより、検出を把握するための異なるアプローチを提案する。
ディープネットワークは、各グリップ候補を一対のキーポイントとして検出し、コーナーポイントの三重項や四重項ではなく、グリップ表現g = x, y, w,thetaTに変換する。
論文 参考訳(メタデータ) (2021-06-16T00:34:55Z) - Sample and Computation Redistribution for Efficient Face Detection [137.19388513633484]
トレーニングデータサンプリングと計算分布戦略は、効率的で正確な顔検出の鍵です。
scrfdf34は、最高の競合製品であるTinaFaceを3.86%(ハードセットでのAP)で上回り、GPU上でVGA解像度画像でmph3$times$より高速です。
論文 参考訳(メタデータ) (2021-05-10T23:51:14Z) - SuctionNet-1Billion: A Large-Scale Benchmark for Suction Grasping [47.221326169627666]
吸引つかみのシール形成とレンチ抵抗を解析的に評価する新しい物理モデルを提案する。
現実世界の混乱したシナリオで収集された大規模データセットにアノテーションを生成するために、2段階の手法が採用されている。
連続運転空間における吸入ポーズを評価するための標準オンライン評価システムを提案する。
論文 参考訳(メタデータ) (2021-03-23T05:02:52Z) - Lightweight Convolutional Neural Network with Gaussian-based Grasping
Representation for Robotic Grasping Detection [4.683939045230724]
現在の物体検出器は、高い精度と高速な推論速度のバランスを取るのが難しい。
ロボットつかみポーズ推定を行うための効率的かつ堅牢な完全畳み込みニューラルネットワークモデルを提案する。
ネットワークは、他の優れたアルゴリズムよりも桁違いに小さい順序です。
論文 参考訳(メタデータ) (2021-01-25T16:36:53Z) - Learning a Unified Sample Weighting Network for Object Detection [113.98404690619982]
地域サンプリングや重み付けは、現代の地域ベースの物体検出器の成功に極めて重要である。
サンプル重み付けはデータ依存でタスク依存であるべきだと我々は主張する。
サンプルのタスク重みを予測するための統一的なサンプル重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2020-06-11T16:19:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。