論文の概要: KRF: Keypoint Refinement with Fusion Network for 6D Pose Estimation
- arxiv url: http://arxiv.org/abs/2210.03437v1
- Date: Fri, 7 Oct 2022 10:13:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 14:54:31.883991
- Title: KRF: Keypoint Refinement with Fusion Network for 6D Pose Estimation
- Title(参考訳): KRF:6次元空間推定のための核融合ネットワークによるキーポイントリファインメント
- Authors: Irvin Haozhe Zhan, Yiheng Han, Yu-Ping Wang, Long Zeng, Yong-Jin Liu
- Abstract要約: Keypoint Refinement with Fusion Network (KRF) は6次元ポーズ推定のための新しい改良パイプラインである。
Color Support Iterative KeyPoint (CIKP) によって、完了したオブジェクトポイントクラウドに対応するターゲットポイントクラウドを登録する。
本手法は,YCB-Videoデータセットでは93.9%から94.4%,Occlusion LineMODデータセットでは64.4%から66.8%,最先端の手法では93.9%に向上する。
- 参考スコア(独自算出の注目度): 26.005552410056396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing refinement methods gradually lose their ability to further improve
pose estimation methods' accuracy. In this paper, we propose a new refinement
pipeline, Keypoint Refinement with Fusion Network (KRF), for 6D pose
estimation, especially for objects with serious occlusion. The pipeline
consists of two steps. It first completes the input point clouds via a novel
point completion network. The network uses both local and global features,
considering the pose information during point completion. Then, it registers
the completed object point cloud with corresponding target point cloud by Color
supported Iterative KeyPoint (CIKP). The CIKP method introduces color
information into registration and registers point cloud around each keypoint to
increase stability. The KRF pipeline can be integrated with existing popular 6D
pose estimation methods, e.g. the full flow bidirectional fusion network, to
further improved their pose estimation accuracy. Experiments show that our
method outperforms the state-of-the-art method from 93.9\% to 94.4\% on
YCB-Video dataset and from 64.4\% to 66.8\% on Occlusion LineMOD dataset. Our
source code is available at https://github.com/zhanhz/KRF.
- Abstract(参考訳): 既存の改良手法では、ポーズ推定法の精度をさらに向上する能力が徐々に失われる。
本稿では,本論文で提案する6次元ポーズ推定のための新しい改良パイプラインであるkrf(keypointfine with fusion network)を提案する。
パイプラインは2つのステップで構成される。
最初に入力点雲を新しい点完結ネットワークを介して完了させる。
ネットワークは、ポイント完了時のポーズ情報を考慮して、ローカル機能とグローバル機能の両方を使用する。
次に、Color Support Iterative KeyPoint (CIKP)によって、完了したオブジェクトポイントクラウドを対応するターゲットポイントクラウドに登録する。
CIKP方式では、色情報を登録に導入し、各キーポイント周辺の点雲を登録して安定性を高める。
KRFパイプラインは、既存の一般的な6次元ポーズ推定手法、例えばフルフロー双方向融合ネットワークと統合して、ポーズ推定精度をさらに向上することができる。
実験の結果,YCB-Videoデータセットでは93.9\%から94.4\%に,Occlusion LineMODデータセットでは64.4\%から66.8\%に向上した。
ソースコードはhttps://github.com/zhanhz/krfで閲覧できます。
関連論文リスト
- Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - Grad-PU: Arbitrary-Scale Point Cloud Upsampling via Gradient Descent
with Learned Distance Functions [77.32043242988738]
我々は、任意のアップサンプリングレートをサポートする、正確なポイントクラウドアップサンプリングのための新しいフレームワークを提案する。
提案手法は,まず,所定のアップサンプリング率に応じて低解像度の雲を補間する。
論文 参考訳(メタデータ) (2023-04-24T06:36:35Z) - HybridFusion: LiDAR and Vision Cross-Source Point Cloud Fusion [15.94976936555104]
我々はHybridFusionと呼ばれるクロスソース点雲融合アルゴリズムを提案する。
アウトドアの大きなシーンでは、異なる視角から、ソース間の密集点雲を登録することができる。
提案手法は,定性的,定量的な実験を通じて総合的に評価される。
論文 参考訳(メタデータ) (2023-04-10T10:54:54Z) - RNNPose: Recurrent 6-DoF Object Pose Refinement with Robust
Correspondence Field Estimation and Pose Optimization [46.144194562841435]
本稿では、オブジェクトポーズ改善のためのリカレントニューラルネットワーク(RNN)に基づくフレームワークを提案する。
この問題は、推定対応フィールドに基づいて非線形最小二乗問題として定式化される。
各イテレーションにおいて、対応フィールド推定とポーズ精錬を代替して行い、正確なオブジェクトポーズを復元する。
論文 参考訳(メタデータ) (2022-03-24T06:24:55Z) - Rethinking Keypoint Representations: Modeling Keypoints and Poses as
Objects for Multi-Person Human Pose Estimation [79.78017059539526]
本研究では,個々のキーポイントと空間的関連キーポイント(ポーズ)の集合を,密集した単一ステージアンカーベース検出フレームワーク内のオブジェクトとしてモデル化する,新しいヒートマップフリーなキーポイント推定手法を提案する。
実験では, KAPAOは従来手法よりもはるかに高速かつ高精度であり, 熱マップ後処理に悩まされていた。
我々の大規模モデルであるKAPAO-Lは、テスト時間拡張なしでMicrosoft COCO Keypoints検証セット上で70.6のAPを達成する。
論文 参考訳(メタデータ) (2021-11-16T15:36:44Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - Deep Bingham Networks: Dealing with Uncertainty and Ambiguity in Pose
Estimation [74.76155168705975]
Deep Bingham Networks (DBN)は、3Dデータに関するほぼすべての実生活アプリケーションで発生するポーズ関連の不確実性と曖昧性を扱うことができる。
DBNは、(i)異なる分布モードを生成できる多仮説予測ヘッドにより、アートダイレクトポーズ回帰ネットワークの状態を拡張する。
トレーニング中のモードや後方崩壊を回避し,数値安定性を向上させるための新しいトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-12-20T19:20:26Z) - PrimA6D: Rotational Primitive Reconstruction for Enhanced and Robust 6D
Pose Estimation [11.873744190924599]
本稿では,1つの画像を入力として,回転プリミティブに基づく6次元オブジェクトポーズ推定を提案する。
変分オートエンコーダ(VAE)を利用して、基礎となるプリミティブとその関連するキーポイントを学習する。
公開データセットに対して評価すると,LINEMOD,Occlusion LINEMOD,およびY誘発データセットよりも顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-06-14T03:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。