論文の概要: CAPTRA: CAtegory-level Pose Tracking for Rigid and Articulated Objects
from Point Clouds
- arxiv url: http://arxiv.org/abs/2104.03437v1
- Date: Thu, 8 Apr 2021 00:14:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 02:07:20.803782
- Title: CAPTRA: CAtegory-level Pose Tracking for Rigid and Articulated Objects
from Point Clouds
- Title(参考訳): CAPTRA: 点雲からの剛体および人工物体のキャテゴリーレベルのポストラッキング
- Authors: Yijia Weng, He Wang, Qiang Zhou, Yuzhe Qin, Yueqi Duan, Qingnan Fan,
Baoquan Chen, Hao Su, Leonidas J. Guibas
- Abstract要約: 新規なリジッドオブジェクトインスタンスに対する9DoFポーズトラッキングと,関節付きオブジェクトに対するパート毎ポーズトラッキングを処理可能な統一フレームワークを提案する。
本手法は、高速なFPS 12で、カテゴリレベルのリジッドオブジェクトポーズ(NOCS-REAL275)と関節オブジェクトポーズベンチマーク(SAPIEN、BMVC)の最新のパフォーマンスを実現します。
- 参考スコア(独自算出の注目度): 97.63549045541296
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we tackle the problem of category-level online pose tracking of
objects from point cloud sequences. For the first time, we propose a unified
framework that can handle 9DoF pose tracking for novel rigid object instances
as well as per-part pose tracking for articulated objects from known
categories. Here the 9DoF pose, comprising 6D pose and 3D size, is equivalent
to a 3D amodal bounding box representation with free 6D pose. Given the depth
point cloud at the current frame and the estimated pose from the last frame,
our novel end-to-end pipeline learns to accurately update the pose. Our
pipeline is composed of three modules: 1) a pose canonicalization module that
normalizes the pose of the input depth point cloud; 2) RotationNet, a module
that directly regresses small interframe delta rotations; and 3) CoordinateNet,
a module that predicts the normalized coordinates and segmentation, enabling
analytical computation of the 3D size and translation. Leveraging the small
pose regime in the pose-canonicalized point clouds, our method integrates the
best of both worlds by combining dense coordinate prediction and direct
rotation regression, thus yielding an end-to-end differentiable pipeline
optimized for 9DoF pose accuracy (without using non-differentiable RANSAC). Our
extensive experiments demonstrate that our method achieves new state-of-the-art
performance on category-level rigid object pose (NOCS-REAL275) and articulated
object pose benchmarks (SAPIEN , BMVC) at the fastest FPS ~12.
- Abstract(参考訳): 本研究では,ポイントクラウドシーケンスからのオブジェクトのカテゴリーレベルのオンラインポーズトラッキングの問題に取り組む。
そこで本研究では,新しいオブジェクトインスタンスの9DoFポーズトラッキングと,既知のカテゴリから抽出されたオブジェクトの部品ごとのポーズトラッキングを行う統合フレームワークを提案する。
ここで、6Dポーズと3Dサイズからなる9DoFポーズは、自由な6Dポーズを持つ3Dアモーダルバウンディングボックス表現と等価である。
現在のフレームの深さ点の雲と、最終フレームから推定されたポーズを考えると、新しいエンドツーエンドパイプラインは、ポーズを正確に更新することを学びます。
1) 入力深度点雲の姿勢を正規化するポーズ標準化モジュール, 2) 小さなフレーム間デルタ回転を直接レグレッションするローテーションネットモジュール,3) 正規化された座標とセグメンテーションを予測し、3次元の大きさと翻訳の分析計算を可能にするコーディネートネットの3つのモジュールからなる。
提案手法は,高密度座標予測と直接回転回帰を組み合わせることで両世界の長所を統合し,9DoFのポーズ精度に最適化されたエンドツーエンドの微分可能なパイプラインを生成する(非微分可能RANSACを用いない)。
提案手法は,カテゴリレベルの剛性オブジェクトポーズ(NOCS-REAL275)と,高速なFPS 〜12で定性オブジェクトポーズベンチマーク(SAPIEN , BMVC)において,新しい最先端性能を実現することを示す。
関連論文リスト
- Shape-Constraint Recurrent Flow for 6D Object Pose Estimation [15.238626453460666]
6次元オブジェクトポーズ推定のための形状制約リカレントマッチングフレームワークを提案する。
まず、初期ポーズと現在推定されているポーズの間の2次元再投影の変位に基づいて、ポーズ誘起フローを計算する。
次に、このポーズ誘導フローを用いて、以下の反復に対する相関写像を構築する。
論文 参考訳(メタデータ) (2023-06-23T02:36:34Z) - RelPose++: Recovering 6D Poses from Sparse-view Observations [66.6922660401558]
スパースビュー画像集合(2-8画像)から6次元カメラポーズを推定する作業に対処する。
我々は,画像対上の相対回転よりも分布を推定するネットワークを学習するRelPoseフレームワークを構築した。
最終システムは,先行技術よりも6次元ポーズ予測を大幅に改善する。
論文 参考訳(メタデータ) (2023-05-08T17:59:58Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - GPV-Pose: Category-level Object Pose Estimation via Geometry-guided
Point-wise Voting [103.74918834553249]
GPV-Poseはロバストなカテゴリーレベルのポーズ推定のための新しいフレームワークである。
幾何学的洞察を利用して、カテゴリーレベルのポーズ感応的特徴の学習を強化する。
一般的な公開ベンチマークにおいて、最先端の競合相手に優れた結果をもたらす。
論文 参考訳(メタデータ) (2022-03-15T13:58:50Z) - ConDor: Self-Supervised Canonicalization of 3D Pose for Partial Shapes [55.689763519293464]
ConDorは、完全および部分的な3次元点雲の3次元配向と位置を正準化することを学ぶ自己教師型手法である。
推測中,本手法は任意のポーズで完全あるいは部分的な3次元点の雲を抽出し,同変正則のポーズを出力する。
論文 参考訳(メタデータ) (2022-01-19T18:57:21Z) - Leveraging SE(3) Equivariance for Self-Supervised Category-Level Object
Pose Estimation [30.04752448942084]
カテゴリーレベルのオブジェクトポーズ推定は、オブジェクトCADモデルにアクセスすることなく、既知のカテゴリから未確認のオブジェクトインスタンスの6Dオブジェクトポーズを見つけることを目的としている。
本研究では,1つの3次元点群からカテゴリレベルの6次元オブジェクトのポーズを推定する自己教師型学習フレームワークを初めて提案する。
論文 参考訳(メタデータ) (2021-10-30T06:46:44Z) - FS-Net: Fast Shape-based Network for Category-Level 6D Object Pose
Estimation with Decoupled Rotation Mechanism [49.89268018642999]
6次元ポーズ推定のための効率的なカテゴリレベルの特徴抽出が可能な高速形状ベースネットワーク(FS-Net)を提案する。
提案手法は,カテゴリレベルおよびインスタンスレベルの6Dオブジェクトのポーズ推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-12T03:07:24Z) - DualPoseNet: Category-level 6D Object Pose and Size Estimation using
Dual Pose Network with Refined Learning of Pose Consistency [30.214100288708163]
カテゴリーレベルの6Dオブジェクトのポーズとサイズ推定は、オブジェクトインスタンスの回転、翻訳、サイズの設定を9自由度(9DoF)で予測する。
本稿では,この課題に対するポーズ一貫性の学習を洗練し,DualPoseNetと略記したDual Pose Networkを提案する。
論文 参考訳(メタデータ) (2021-03-11T08:33:47Z) - L6DNet: Light 6 DoF Network for Robust and Precise Object Pose
Estimation with Small Datasets [0.0]
1枚のRGB-D画像から6つのDoFオブジェクトのポーズ推定を行う新しい手法を提案する。
データ駆動と幾何学という2段階のハイブリッドパイプラインを採用しています。
私たちのアプローチは最先端の手法よりも堅牢で正確です。
論文 参考訳(メタデータ) (2020-02-03T17:41:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。