論文の概要: KGNv2: Separating Scale and Pose Prediction for Keypoint-based 6-DoF
Grasp Pose Synthesis on RGB-D input
- arxiv url: http://arxiv.org/abs/2303.05617v1
- Date: Thu, 9 Mar 2023 23:11:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 16:46:09.839800
- Title: KGNv2: Separating Scale and Pose Prediction for Keypoint-based 6-DoF
Grasp Pose Synthesis on RGB-D input
- Title(参考訳): KGNv2:RGB-D入力におけるキーポイントベース6-DoFグラフポス合成のスケールとポス予測
- Authors: Yiye Chen, Ruinian Xu, Yunzhi Lin, Patricio A. Vela
- Abstract要約: 画像入力によるキーポイント型グリップ検出器は有望な結果を示した。
そこで我々は,キーポイント推定への依存性を低減できる新たなグリップ生成ネットワークを考案した。
- 参考スコア(独自算出の注目度): 18.459440576388612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new 6-DoF grasp pose synthesis approach from 2D/2.5D input based
on keypoints. Keypoint-based grasp detector from image input has demonstrated
promising results in the previous study, where the additional visual
information provided by color images compensates for the noisy depth
perception. However, it relies heavily on accurately predicting the location of
keypoints in the image space. In this paper, we devise a new grasp generation
network that reduces the dependency on precise keypoint estimation. Given an
RGB-D input, our network estimates both the grasp pose from keypoint detection
as well as scale towards the camera. We further re-design the keypoint output
space in order to mitigate the negative impact of keypoint prediction noise to
Perspective-n-Point (PnP) algorithm. Experiments show that the proposed method
outperforms the baseline by a large margin, validating the efficacy of our
approach. Finally, despite trained on simple synthetic objects, our method
demonstrate sim-to-real capacity by showing competitive results in real-world
robot experiments.
- Abstract(参考訳): キーポイントに基づく2d/2.5d入力からの6自由度ポーズ合成手法を提案する。
画像入力からのキーポイントに基づく把持検出装置は,カラー画像による付加視覚情報が雑音の奥行き知覚を補償する,先行研究で有望な結果を示している。
しかし、画像空間内のキーポイントの位置を正確に予測することに大きく依存している。
本稿では,精度の高いキーポイント推定への依存性を低減した新しい把持生成ネットワークを考案する。
rgb-d入力が与えられると、ネットワークはキーポイント検出からの把持位置とカメラへのスケールの両方を推定する。
我々はさらに,キーポイント予測ノイズの悪影響をpnpアルゴリズムに緩和するために,キーポイント出力空間を再設計する。
実験の結果,提案手法はベースラインよりも高い性能を示し,提案手法の有効性を検証した。
最後に, 簡単な合成物体を訓練しながら, 実世界のロボット実験において, 競争力を示すことによって, シミュレーションから現実までの能力を示す。
関連論文リスト
- SRPose: Two-view Relative Pose Estimation with Sparse Keypoints [51.49105161103385]
SRPoseは、カメラ・トゥ・ワールドおよびオブジェクト・トゥ・カメラシナリオにおける2ビュー相対ポーズ推定のためのスパースキーポイントベースのフレームワークである。
精度と速度の点で最先端の手法と比較して、競争力や優れた性能を達成する。
さまざまな画像サイズやカメラ固有の機能に対して堅牢であり、低コンピューティングリソースでデプロイすることができる。
論文 参考訳(メタデータ) (2024-07-11T05:46:35Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Learning Feature Matching via Matchable Keypoint-Assisted Graph Neural
Network [52.29330138835208]
画像のペア間の局所的な特徴の正確なマッチングは、コンピュータビジョンの課題である。
従来の研究では、注意に基づくグラフニューラルネットワーク(GNN)と、画像内のキーポイントに完全に接続されたグラフを使用するのが一般的だった。
本稿では,非繰り返しキーポイントをバイパスし,マッチング可能なキーポイントを利用してメッセージパッシングを誘導する,疎注意に基づくGNNアーキテクチャであるMaKeGNNを提案する。
論文 参考訳(メタデータ) (2023-07-04T02:50:44Z) - Centroid Distance Keypoint Detector for Colored Point Clouds [32.74803728070627]
キーポイント検出は多くのコンピュータビジョンとロボティクスアプリケーションの基礎となる。
そこで本研究では,色点雲中の幾何塩分と色塩分の両方のキーポイントを抽出できる効率的なマルチモーダルキーポイント検出器を提案する。
論文 参考訳(メタデータ) (2022-10-04T00:55:51Z) - Keypoint-GraspNet: Keypoint-based 6-DoF Grasp Generation from the
Monocular RGB-D input [6.1938383008964495]
提案手法であるKeypoint-GraspNetは、画像空間内のグリップキーポイントの投影を検出し、アルゴリズムを用いてポーズを復元する。
定量的評価の結果,提案手法の精度,多様性,時間的コストの把握において,提案手法がベースラインを上回っていることが判明した。
論文 参考訳(メタデータ) (2022-09-19T04:23:20Z) - Probabilistic Spatial Distribution Prior Based Attentional Keypoints
Matching Network [19.708243062836104]
キーポイントマッチングは、画像ステッチ、視覚的同時ローカライゼーション、マッピングなど、多くの画像関連アプリケーションにとって重要なコンポーネントである。
本稿では、IMU統合による動き推定を用いて、画像間のキーポイントの前の空間分布を推定できることを実証する。
本稿では,提案したキーポイントマッチングネットワークに対して,マッチングと未マッチングのキーポイント間のスムーズなエッジを与えるプロジェクションロスを提案する。
論文 参考訳(メタデータ) (2021-11-17T09:52:03Z) - Accurate Grid Keypoint Learning for Efficient Video Prediction [87.71109421608232]
キーポイントベースのビデオ予測手法は、トレーニングやデプロイメントにおいて、かなりの計算資源を消費することができる。
本稿では,長期的効率的な映像予測のための頑健で説明可能な中間キーポイント表現を目的とした,新しいグリッドキーポイント学習フレームワークを設計する。
提案手法は,計算資源の98%以上を節約しつつ,最先端のビデオ予測手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-28T05:04:30Z) - 6D Object Pose Estimation using Keypoints and Part Affinity Fields [24.126513851779936]
RGB画像からの6Dオブジェクトのポーズ推定のタスクは、自律型サービスロボットが現実世界と対話できるための重要な要件である。
既知物体の6自由度変換と配向を推定するための2段階パイプラインを提案する。
論文 参考訳(メタデータ) (2021-07-05T14:41:19Z) - Bottom-Up Human Pose Estimation Via Disentangled Keypoint Regression [81.05772887221333]
従来のキーポイント検出およびグループ化フレームワークに劣る密度の高いキーポイント回帰フレームワークについて検討する。
我々は,dekr(disentangled keypoint regression)という,単純かつ効果的な手法を提案する。
提案手法はキーポイント検出法やグループ化法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-06T05:54:46Z) - Bottom-Up Human Pose Estimation by Ranking Heatmap-Guided Adaptive
Keypoint Estimates [76.51095823248104]
キーポイント検出とグループ化(キーポイント回帰)性能を改善するために,これまでにほとんど,あるいはまったく研究されていないいくつかのスキームを提案する。
まず,画素単位のキーポイントレグレッションに対して,キーポイントのリグレッションを改善するために分離する代わりに,キーポイントのヒートマップを利用する。
第2に、スケールと向きの分散を扱うための適応表現を学習するために、画素単位の空間変換器ネットワークを採用する。
第3に,真のポーズとなる確率の高い推定ポーズを促進するために,結合形状と熱値評価手法を提案する。
論文 参考訳(メタデータ) (2020-06-28T01:14:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。