論文の概要: Keypoint-GraspNet: Keypoint-based 6-DoF Grasp Generation from the
Monocular RGB-D input
- arxiv url: http://arxiv.org/abs/2209.08752v4
- Date: Mon, 1 May 2023 17:53:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 19:40:26.119361
- Title: Keypoint-GraspNet: Keypoint-based 6-DoF Grasp Generation from the
Monocular RGB-D input
- Title(参考訳): Keypoint-GraspNet:単分子RGB-D入力からのKeypoint-based 6-DoF Grasp生成
- Authors: Yiye Chen, Yunzhi Lin, Ruinian Xu, Patricio Vela
- Abstract要約: 提案手法であるKeypoint-GraspNetは、画像空間内のグリップキーポイントの投影を検出し、アルゴリズムを用いてポーズを復元する。
定量的評価の結果,提案手法の精度,多様性,時間的コストの把握において,提案手法がベースラインを上回っていることが判明した。
- 参考スコア(独自算出の注目度): 6.1938383008964495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Great success has been achieved in the 6-DoF grasp learning from the point
cloud input, yet the computational cost due to the point set orderlessness
remains a concern. Alternatively, we explore the grasp generation from the
RGB-D input in this paper. The proposed solution, Keypoint-GraspNet, detects
the projection of the gripper keypoints in the image space and then recover the
SE(3) poses with a PnP algorithm. A synthetic dataset based on the primitive
shape and the grasp family is constructed to examine our idea. Metric-based
evaluation reveals that our method outperforms the baselines in terms of the
grasp proposal accuracy, diversity, and the time cost. Finally, robot
experiments show high success rate, demonstrating the potential of the idea in
the real-world applications.
- Abstract(参考訳): ポイントクラウド入力からの6自由度把握学習では大きな成功を収めているが、ポイントセットの無秩序による計算コストは依然として懸念されている。
また,本論文では,RGB-D入力のグリップ生成について検討する。
提案する解であるkeypoint-graspnetは、画像空間におけるグリッパーキーポイントの投影を検出し、pnpアルゴリズムを用いてse(3)のポーズを復元する。
原始的な形状と把握家族に基づく合成データセットを構築し,そのアイデアを検証した。
定量的評価の結果,提案手法の精度,多様性,時間的コストの把握において,提案手法がベースラインを上回っていることが判明した。
最後に、ロボット実験は高い成功率を示し、現実世界の応用におけるアイデアの可能性を示す。
関連論文リスト
- ParaPoint: Learning Global Free-Boundary Surface Parameterization of 3D Point Clouds [52.03819676074455]
ParaPointは、グローバルな自由境界面パラメータ化を実現するための教師なしのニューラルネットワークパイプラインである。
この研究は、グローバルマッピングと自由境界の両方を追求するニューラルポイントクラウドパラメータ化を調査する最初の試みである。
論文 参考訳(メタデータ) (2024-03-15T14:35:05Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Learning Better Keypoints for Multi-Object 6DoF Pose Estimation [1.0878040851638]
グラフネットワークをトレーニングして、同様に分散された投票で分散されたキーポイントのセットを選択する。
これらの投票は、キーポイントの位置の証拠を蓄積するために回帰ネットワークによって学習され、より正確に回帰することができる。
実験では、KeyGNetが選択したキーポイントが、テストされた7つのデータセットのすべての評価指標の精度を改善した。
論文 参考訳(メタデータ) (2023-08-15T15:11:13Z) - KGNv2: Separating Scale and Pose Prediction for Keypoint-based 6-DoF
Grasp Synthesis on RGB-D input [16.897624250286487]
画像入力によるキーポイント型グリップ検出器は有望な結果を示した。
そこで我々は,キーポイント推定への依存性を低減できる新たなグリップ生成ネットワークを考案した。
論文 参考訳(メタデータ) (2023-03-09T23:11:52Z) - Keypoint Cascade Voting for Point Cloud Based 6DoF Pose Estimation [1.3439502310822147]
本稿では,RGB情報のない入力として純無秩序のクラウド幾何を用いる6DoFオブジェクトポーズ推定法を提案する。
提案手法であるRCVPose3Dは,キーポイント回帰とセマンティックセグメンテーションのタスクを分離した新しいアーキテクチャに基づいている。
論文 参考訳(メタデータ) (2022-10-14T21:36:52Z) - SNAKE: Shape-aware Neural 3D Keypoint Field [62.91169625183118]
形状復元には点雲から3Dキーポイントを検出することが重要である。
形状再構成は3次元キーポイント検出に有効か?
本稿では,形状認識型ニューラル3Dキーポイントフィールドに短いSNAKEという,教師なしの新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2022-06-03T17:58:43Z) - ZebraPose: Coarse to Fine Surface Encoding for 6DoF Object Pose
Estimation [76.31125154523056]
物体表面を高密度に表現できる離散ディスクリプタを提案する。
また,微粒化対応予測が可能な微粒化学習戦略を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:24Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - Accurate Grid Keypoint Learning for Efficient Video Prediction [87.71109421608232]
キーポイントベースのビデオ予測手法は、トレーニングやデプロイメントにおいて、かなりの計算資源を消費することができる。
本稿では,長期的効率的な映像予測のための頑健で説明可能な中間キーポイント表現を目的とした,新しいグリッドキーポイント学習フレームワークを設計する。
提案手法は,計算資源の98%以上を節約しつつ,最先端のビデオ予測手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-28T05:04:30Z) - 3D Point-to-Keypoint Voting Network for 6D Pose Estimation [8.801404171357916]
3次元キーポイントの空間構造特性に基づくRGB-Dデータから6次元ポーズ推定のためのフレームワークを提案する。
提案手法は, LINEMOD と OCCLUSION LINEMOD の2つのベンチマークデータセットで検証する。
論文 参考訳(メタデータ) (2020-12-22T11:43:15Z) - Grasp Proposal Networks: An End-to-End Solution for Visual Learning of
Robotic Grasps [31.021600064320168]
本研究では,一対一のカメラビューから観察される未知の物体に対して,多種多様な6-DOFグリップの予測を行う,GPNet(EnmphGrasp Proposal Network)を提案する。
GPNetは、個別だが通常の3Dグリッド角のグリップセンターのエンファンコーダを定義する、グリップ提案モジュールの鍵となる設計に基づいている。
本研究では,ルールベース基準,シミュレーションテスト,実検定を用いて6-DOFオブジェクトグリップの合成データセットを作成した。
論文 参考訳(メタデータ) (2020-09-26T14:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。