論文の概要: Efficient Heatmap-Guided 6-Dof Grasp Detection in Cluttered Scenes
- arxiv url: http://arxiv.org/abs/2403.18546v1
- Date: Wed, 27 Mar 2024 13:24:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 16:58:17.624349
- Title: Efficient Heatmap-Guided 6-Dof Grasp Detection in Cluttered Scenes
- Title(参考訳): 断熱シーンにおける効率的なヒートマップ誘導6次元グラフ検出
- Authors: Siang Chen, Wei Tang, Pengwei Xie, Wenming Yang, Guijin Wang,
- Abstract要約: 広範に使われているヒートマップは6次元グリップ生成の効率において過小評価されていることを示す。
そこで本研究では,グローバル・ローカル・セマンティック・ツー・ポイント方式で推定する,効果的な局所的把握ジェネレータとグリップ・ヒートマップをガイダンスとして提案する。
我々のフレームワークは、リアルタイムに高品質な把握検出を行い、最先端の結果を得ることができる。
- 参考スコア(独自算出の注目度): 34.383783440647804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast and robust object grasping in clutter is a crucial component of robotics. Most current works resort to the whole observed point cloud for 6-Dof grasp generation, ignoring the guidance information excavated from global semantics, thus limiting high-quality grasp generation and real-time performance. In this work, we show that the widely used heatmaps are underestimated in the efficiency of 6-Dof grasp generation. Therefore, we propose an effective local grasp generator combined with grasp heatmaps as guidance, which infers in a global-to-local semantic-to-point way. Specifically, Gaussian encoding and the grid-based strategy are applied to predict grasp heatmaps as guidance to aggregate local points into graspable regions and provide global semantic information. Further, a novel non-uniform anchor sampling mechanism is designed to improve grasp accuracy and diversity. Benefiting from the high-efficiency encoding in the image space and focusing on points in local graspable regions, our framework can perform high-quality grasp detection in real-time and achieve state-of-the-art results. In addition, real robot experiments demonstrate the effectiveness of our method with a success rate of 94% and a clutter completion rate of 100%. Our code is available at https://github.com/THU-VCLab/HGGD.
- Abstract(参考訳): クラッタ内での高速で頑丈な物体の把握は、ロボット工学の重要な構成要素である。
現在の研究の多くは、グローバルセマンティクスから出土したガイダンス情報を無視して、観測点雲全体を6次元のグリップ生成に利用しているため、高品質なグリップ生成とリアルタイムのパフォーマンスが制限されている。
本研究では, 6-Dofグリップ生成の効率において, 広く用いられている熱マップが過小評価されていることを示す。
そこで本研究では,グローバル・ローカル・セマンティック・ツー・ポイント方式で推定する,効果的な局所的把握ジェネレータと,ヘアマップの把握をガイダンスとして提案する。
具体的には,局所点を把握可能な領域に集約し,グローバルな意味情報を提供するためのガイダンスとして,ガウス符号化とグリッドベース戦略を適用した。
さらに、把握精度と多様性を向上させるために、新しい一様アンカーサンプリング機構を設計する。
画像空間における高能率符号化と局所的把握可能な領域の点に着目して、我々のフレームワークは、リアルタイムに高品質な把握検出を行い、最先端の結果を得ることができる。
さらに、実際のロボット実験では、成功率94%、クラッタ完了率100%で、本手法の有効性を実証している。
私たちのコードはhttps://github.com/THU-VCLab/HGGD.comで公開されています。
関連論文リスト
- Highly Efficient and Unsupervised Framework for Moving Object Detection in Satellite Videos [0.2023650687546586]
本稿では,SVMODのための高度に効率的な非教師付きフレームワークを提案する。
提案手法は,1024倍画像上で秒間9フレームを処理できるだけでなく,フォアグラウンド・アート・パフォーマンスも実現可能であることを示す。
論文 参考訳(メタデータ) (2024-11-24T16:06:42Z) - Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - GraNet: A Multi-Level Graph Network for 6-DoF Grasp Pose Generation in
Cluttered Scenes [0.5755004576310334]
GraNetはグラフベースのグリップポーズ生成フレームワークで、ポイントクラウドシーンをマルチレベルグラフに変換する。
このパイプラインは, 散在するシーンにおけるグリップの空間分布を特徴付けることができ, 効果的グリップの速度が向上する。
提案手法は,大規模GraspNet-1Billionベンチマークにおいて,特に未確認オブジェクトの把握において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-06T08:36:29Z) - Volumetric Semantically Consistent 3D Panoptic Mapping [77.13446499924977]
非構造環境における自律エージェントに適したセマンティック3Dマップを生成することを目的としたオンライン2次元から3次元のセマンティック・インスタンスマッピングアルゴリズムを提案する。
マッピング中にセマンティック予測の信頼性を統合し、セマンティックおよびインスタンス一貫性のある3D領域を生成する新しい方法を導入する。
提案手法は,パブリックな大規模データセット上での最先端の精度を実現し,多くの広く使用されているメトリクスを改善した。
論文 参考訳(メタデータ) (2023-09-26T08:03:10Z) - SuperGF: Unifying Local and Global Features for Visual Localization [13.869227429939423]
SuperGFは、画像マッチング固有のローカル機能を直接操作するトランスフォーマーベースの集約モデルである。
我々は,高密度でスパースな学習ベースや手作りの記述子など,様々なローカル特徴を用いたSuperGFの実装を提供する。
論文 参考訳(メタデータ) (2022-12-23T13:48:07Z) - RTFormer: Efficient Design for Real-Time Semantic Segmentation with
Transformer [63.25665813125223]
本稿では,リアルタイムセマンティックセグメンテーションのための効率的なデュアルレゾリューション変換器RTFormerを提案する。
CNNベースのモデルよりもパフォーマンスと効率のトレードオフが優れている。
主要なベンチマーク実験では,提案したRTFormerの有効性を示す。
論文 参考訳(メタデータ) (2022-10-13T16:03:53Z) - Delving into Sequential Patches for Deepfake Detection [64.19468088546743]
近年の顔偽造技術は、ほとんど追跡不可能なディープフェイクビデオを生み出しており、悪意のある意図で活用することができる。
従来の研究では、ディープフェイク法にまたがる一般化を追求する上で、局所的な低レベルな手がかりと時間的情報の重要性が指摘されてきた。
本稿では,局所的・時間的変換をベースとしたDeepfake Detectionフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-06T16:46:30Z) - Gait Recognition via Effective Global-Local Feature Representation and
Local Temporal Aggregation [28.721376937882958]
歩行認識は最も重要な生体計測技術の一つであり、多くの分野で応用されている。
近年の歩行認識フレームワークは、人間のグローバルな外観または地域から抽出された記述子によって各歩行フレームを表現している。
歩行認識のための識別的特徴表現を実現するための新しい特徴抽出・融合フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-03T04:07:13Z) - Semantic Histogram Based Graph Matching for Real-Time Multi-Robot Global
Localization in Large Scale Environment [18.128244946109795]
本稿では,視点変化に頑健な意味ヒストグラムに基づくグラフマッチング手法を提案し,リアルタイムなグローバルなローカライゼーションを実現する。
我々のアプローチはランダムウォークベースのセマンティック記述子よりも約30倍高速です。
これは、グローバルなローカライゼーションにおいて95%の精度を達成する一方、最先端手法の精度は85%である。
論文 参考訳(メタデータ) (2020-10-19T08:18:42Z) - Real-time Semantic Segmentation with Fast Attention [94.88466483540692]
本稿では,高解像度画像と映像をリアルタイムにセマンティックセグメンテーションするための新しいアーキテクチャを提案する。
提案したアーキテクチャは我々の空間的注意の速さに依存しており、これは一般的な自己注意機構の単純かつ効率的な修正である。
複数のデータセットに対する結果から,既存の手法に比べて精度と速度が向上し,優れた性能を示した。
論文 参考訳(メタデータ) (2020-07-07T22:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。