論文の概要: PCF-Grasp: Converting Point Completion to Geometry Feature to Enhance 6-DoF Grasp
- arxiv url: http://arxiv.org/abs/2504.16320v1
- Date: Tue, 22 Apr 2025 23:37:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.962379
- Title: PCF-Grasp: Converting Point Completion to Geometry Feature to Enhance 6-DoF Grasp
- Title(参考訳): PCF-Grasp: 6-DoF Grasp を拡張した幾何学的特徴へのポイントコンプリート変換
- Authors: Yaofeng Cheng, Fusheng Zha, Wei Guo, Pengfei Wang, Chao Zeng, Lining Sun, Chenguang Yang,
- Abstract要約: 本稿では、6-DoFグリップネットワークをトレーニングするために、ポイント完了結果をオブジェクト形状の特徴として変換する新しい6-DoFグリップフレームワークを提案する。
本手法は実世界の実験において最先端の手法よりも17.8%の成功率を達成する。
- 参考スコア(独自算出の注目度): 14.909551737430473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The 6-Degree of Freedom (DoF) grasp method based on point clouds has shown significant potential in enabling robots to grasp target objects. However, most existing methods are based on the point clouds (2.5D points) generated from single-view depth images. These point clouds only have one surface side of the object providing incomplete geometry information, which mislead the grasping algorithm to judge the shape of the target object, resulting in low grasping accuracy. Humans can accurately grasp objects from a single view by leveraging their geometry experience to estimate object shapes. Inspired by humans, we propose a novel 6-DoF grasping framework that converts the point completion results as object shape features to train the 6-DoF grasp network. Here, point completion can generate approximate complete points from the 2.5D points similar to the human geometry experience, and converting it as shape features is the way to utilize it to improve grasp efficiency. Furthermore, due to the gap between the network generation and actual execution, we integrate a score filter into our framework to select more executable grasp proposals for the real robot. This enables our method to maintain a high grasp quality in any camera viewpoint. Extensive experiments demonstrate that utilizing complete point features enables the generation of significantly more accurate grasp proposals and the inclusion of a score filter greatly enhances the credibility of real-world robot grasping. Our method achieves a 17.8\% success rate higher than the state-of-the-art method in real-world experiments.
- Abstract(参考訳): 点雲に基づく自由度6自由度把握法(DoF)は,ロボットが対象物を把握できる重要な可能性を示している。
しかし、既存の手法のほとんどは、一視点深度画像から生成される点雲(2.5D点)に基づいている。
これらの点雲は、不完全な幾何情報を提供する物体の片面のみを有しており、これは、対象物体の形状を判断するために把握アルゴリズムを誤解させ、つかみ精度を低くする。
人間は、幾何学的経験を利用してオブジェクトの形状を推定することで、単一の視点からオブジェクトを正確に把握することができる。
そこで,人間に触発された新しい6-DoFグルーピングフレームワークを提案し,点完了結果をオブジェクト形状の特徴として変換し,6-DoFグルーピングネットワークを訓練する。
ここでは、点完備化により、人間の幾何学的経験に類似した2.5D点から近似完備点を生成でき、それを形状特徴として変換することで、把握効率を向上させることができる。
さらに、ネットワーク生成と実際の実行のギャップにより、実際のロボットに対してより実行可能な把握提案を選択するためにスコアフィルタを我々のフレームワークに統合する。
これにより,カメラの視点で高い把握品質を維持することが可能となる。
総合的な実験により, 完全点特徴の活用により, より高精度な把握提案の生成が可能となり, スコアフィルタが組み込まれれば, 実世界のロボットの把握の信頼性が大幅に向上することが示された。
本手法は実世界の実験において最先端の手法よりも17.8 %の成功率を達成する。
関連論文リスト
- GenFlow: Generalizable Recurrent Flow for 6D Pose Refinement of Novel Objects [14.598853174946656]
我々は、新しいオブジェクトへの精度と一般化を可能にするアプローチであるGenFlowを提案する。
提案手法は, レンダリング画像と観察画像との間の光学的流れを予測し, 6次元ポーズを反復的に洗練する。
3次元形状の制約と、エンドツーエンドの微分システムから学習した一般化可能な幾何学的知識により、性能を向上させる。
論文 参考訳(メタデータ) (2024-03-18T06:32:23Z) - ParaPoint: Learning Global Free-Boundary Surface Parameterization of 3D Point Clouds [52.03819676074455]
ParaPointは、グローバルな自由境界面パラメータ化を実現するための教師なしのニューラルネットワークパイプラインである。
この研究は、グローバルマッピングと自由境界の両方を追求するニューラルポイントクラウドパラメータ化を調査する最初の試みである。
論文 参考訳(メタデータ) (2024-03-15T14:35:05Z) - Robust 3D Tracking with Quality-Aware Shape Completion [67.9748164949519]
そこで本研究では,高密度および完全点の雲からなる合成対象表現について,ロバストな3次元追跡のための形状完備化により正確に表現する。
具体的には, 形状が整ったボキセル化3次元追跡フレームワークを設計し, ノイズのある歴史的予測の悪影響を軽減するために, 品質に配慮した形状完備化機構を提案する。
論文 参考訳(メタデータ) (2023-12-17T04:50:24Z) - ImageManip: Image-based Robotic Manipulation with Affordance-guided Next
View Selection [10.162882793554191]
ロボットが環境と対話するためには、3Dの関節による物体操作が不可欠である。
既存の多くの研究では、操作ポリシーの主要な入力として3Dポイントクラウドを使用している。
RGB画像は、コスト効率の良い装置を用いた高分解能な観察を提供するが、空間的3次元幾何学的情報は欠如している。
このフレームワークは、対象対象物の複数の視点を捉え、その幾何学を補完するために深度情報を推測するように設計されている。
論文 参考訳(メタデータ) (2023-10-13T12:42:54Z) - AdaPoinTr: Diverse Point Cloud Completion with Adaptive Geometry-Aware
Transformers [94.11915008006483]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々は、ポイントクラウド補完のためにTransformerエンコーダデコーダアーキテクチャを採用したPoinTrと呼ばれる新しいモデルを設計する。
本手法は,PCNで6.53 CD,ShapeNet-55で0.81 CD,現実世界のKITTIで0.392 MMDを実現する。
論文 参考訳(メタデータ) (2023-01-11T16:14:12Z) - Leveraging Single-View Images for Unsupervised 3D Point Cloud Completion [53.93172686610741]
Cross-PCCは3次元完全点雲を必要としない教師なしの点雲補完法である。
2次元画像の相補的な情報を活用するために,単視点RGB画像を用いて2次元特徴を抽出する。
我々の手法は、いくつかの教師付き手法に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2022-12-01T15:11:21Z) - Shape Completion with Points in the Shadow [13.608498759468024]
単一視点のクラウド補完は、限られた観測のみに基づいてオブジェクトの完全な幾何を復元することを目的としている。
コンピュータグラフィックスにおける古典的なシャドウボリューム技術に着想を得て,解空間を効果的に削減する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-17T14:58:56Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - A Dynamic Keypoints Selection Network for 6DoF Pose Estimation [0.0]
6 DoF は2つの座標間の回転と変換のパラメータを推定することを目的とした推定問題である。
単一のRGBD画像から6DoFポーズ推定のために設計された動的キーポイント選択に基づく新しいディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-24T09:58:56Z) - Contact-GraspNet: Efficient 6-DoF Grasp Generation in Cluttered Scenes [50.303361537562715]
6-DoFパラレルジャッジの分布を効率的に生成するエンドツーエンドネットワークを提案する。
観測された点群の6-DoF把握ポーズと幅を根付かせることで、把握表現の寸法を4-DoFに縮小することができます。
構造クラッタにおける未知物体のロボット把持実験では, 90%以上の成功率を達成し, 最近の最先端手法と比較して, 故障率を半分に削減した。
論文 参考訳(メタデータ) (2021-03-25T20:33:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。