論文の概要: KRF: Keypoint Refinement with Fusion Network for 6D Pose Estimation
- arxiv url: http://arxiv.org/abs/2210.03437v1
- Date: Fri, 7 Oct 2022 10:13:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 14:54:31.883991
- Title: KRF: Keypoint Refinement with Fusion Network for 6D Pose Estimation
- Title(参考訳): KRF:6次元空間推定のための核融合ネットワークによるキーポイントリファインメント
- Authors: Irvin Haozhe Zhan, Yiheng Han, Yu-Ping Wang, Long Zeng, Yong-Jin Liu
- Abstract要約: Keypoint Refinement with Fusion Network (KRF) は6次元ポーズ推定のための新しい改良パイプラインである。
Color Support Iterative KeyPoint (CIKP) によって、完了したオブジェクトポイントクラウドに対応するターゲットポイントクラウドを登録する。
本手法は,YCB-Videoデータセットでは93.9%から94.4%,Occlusion LineMODデータセットでは64.4%から66.8%,最先端の手法では93.9%に向上する。
- 参考スコア(独自算出の注目度): 26.005552410056396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing refinement methods gradually lose their ability to further improve
pose estimation methods' accuracy. In this paper, we propose a new refinement
pipeline, Keypoint Refinement with Fusion Network (KRF), for 6D pose
estimation, especially for objects with serious occlusion. The pipeline
consists of two steps. It first completes the input point clouds via a novel
point completion network. The network uses both local and global features,
considering the pose information during point completion. Then, it registers
the completed object point cloud with corresponding target point cloud by Color
supported Iterative KeyPoint (CIKP). The CIKP method introduces color
information into registration and registers point cloud around each keypoint to
increase stability. The KRF pipeline can be integrated with existing popular 6D
pose estimation methods, e.g. the full flow bidirectional fusion network, to
further improved their pose estimation accuracy. Experiments show that our
method outperforms the state-of-the-art method from 93.9\% to 94.4\% on
YCB-Video dataset and from 64.4\% to 66.8\% on Occlusion LineMOD dataset. Our
source code is available at https://github.com/zhanhz/KRF.
- Abstract(参考訳): 既存の改良手法では、ポーズ推定法の精度をさらに向上する能力が徐々に失われる。
本稿では,本論文で提案する6次元ポーズ推定のための新しい改良パイプラインであるkrf(keypointfine with fusion network)を提案する。
パイプラインは2つのステップで構成される。
最初に入力点雲を新しい点完結ネットワークを介して完了させる。
ネットワークは、ポイント完了時のポーズ情報を考慮して、ローカル機能とグローバル機能の両方を使用する。
次に、Color Support Iterative KeyPoint (CIKP)によって、完了したオブジェクトポイントクラウドを対応するターゲットポイントクラウドに登録する。
CIKP方式では、色情報を登録に導入し、各キーポイント周辺の点雲を登録して安定性を高める。
KRFパイプラインは、既存の一般的な6次元ポーズ推定手法、例えばフルフロー双方向融合ネットワークと統合して、ポーズ推定精度をさらに向上することができる。
実験の結果,YCB-Videoデータセットでは93.9\%から94.4\%に,Occlusion LineMODデータセットでは64.4\%から66.8\%に向上した。
ソースコードはhttps://github.com/zhanhz/krfで閲覧できます。
関連論文リスト
- Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - HybridFusion: LiDAR and Vision Cross-Source Point Cloud Fusion [15.94976936555104]
我々はHybridFusionと呼ばれるクロスソース点雲融合アルゴリズムを提案する。
アウトドアの大きなシーンでは、異なる視角から、ソース間の密集点雲を登録することができる。
提案手法は,定性的,定量的な実験を通じて総合的に評価される。
論文 参考訳(メタデータ) (2023-04-10T10:54:54Z) - Keypoint Cascade Voting for Point Cloud Based 6DoF Pose Estimation [1.3439502310822147]
本稿では,RGB情報のない入力として純無秩序のクラウド幾何を用いる6DoFオブジェクトポーズ推定法を提案する。
提案手法であるRCVPose3Dは,キーポイント回帰とセマンティックセグメンテーションのタスクを分離した新しいアーキテクチャに基づいている。
論文 参考訳(メタデータ) (2022-10-14T21:36:52Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - A Dynamic Keypoints Selection Network for 6DoF Pose Estimation [0.0]
6 DoF は2つの座標間の回転と変換のパラメータを推定することを目的とした推定問題である。
単一のRGBD画像から6DoFポーズ推定のために設計された動的キーポイント選択に基づく新しいディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-24T09:58:56Z) - KDFNet: Learning Keypoint Distance Field for 6D Object Pose Estimation [43.839322860501596]
KDFNetはRGB画像から6次元オブジェクトのポーズ推定を行う新しい手法である。
投影された2次元キーポイント位置に対するキーポイント距離場(KDF)と呼ばれる連続表現を提案する。
我々は、キーポイント毎にKDFを回帰するために、完全に畳み込みニューラルネットワークを使用します。
論文 参考訳(メタデータ) (2021-09-21T12:17:24Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z) - FS-Net: Fast Shape-based Network for Category-Level 6D Object Pose
Estimation with Decoupled Rotation Mechanism [49.89268018642999]
6次元ポーズ推定のための効率的なカテゴリレベルの特徴抽出が可能な高速形状ベースネットワーク(FS-Net)を提案する。
提案手法は,カテゴリレベルおよびインスタンスレベルの6Dオブジェクトのポーズ推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-12T03:07:24Z) - FFB6D: A Full Flow Bidirectional Fusion Network for 6D Pose Estimation [54.666329929930455]
単一RGBD画像からの6次元ポーズ推定のための双方向融合ネットワークであるFFB6Dを提案する。
表現学習と出力表現選択のための表現情報と幾何学情報を組み合わせることを学ぶ。
提案手法は,いくつかのベンチマークにおいて,最先端の手法よりも大きなマージンを達成している。
論文 参考訳(メタデータ) (2021-03-03T08:07:29Z) - Refinement of Predicted Missing Parts Enhance Point Cloud Completion [62.997667081978825]
点雲完了は、部分的な観測から3次元形状の点集合表現を用いて完全な幾何学を予測するタスクである。
従来のアプローチでは、不完全点集合によって供給されるエンコーダ・デコーダモデルにより、点雲全体を直接推定するニューラルネットワークが提案されていた。
本稿では、欠落した幾何を計算し、既知の入力と予測点クラウドを融合することに焦点を当てたエンドツーエンドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-08T22:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。