論文の概要: DualPoseNet: Category-level 6D Object Pose and Size Estimation using
Dual Pose Network with Refined Learning of Pose Consistency
- arxiv url: http://arxiv.org/abs/2103.06526v1
- Date: Thu, 11 Mar 2021 08:33:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:46:35.507575
- Title: DualPoseNet: Category-level 6D Object Pose and Size Estimation using
Dual Pose Network with Refined Learning of Pose Consistency
- Title(参考訳): DualPoseNet:Poseの一貫性を学習したデュアルPoseネットワークを用いたカテゴリレベルの6Dオブジェクトポースとサイズ推定
- Authors: Jiehong Lin, Zewei Wei, Zhihao Li, Songcen Xu, Kui Jia, Yuanqing Li
- Abstract要約: カテゴリーレベルの6Dオブジェクトのポーズとサイズ推定は、オブジェクトインスタンスの回転、翻訳、サイズの設定を9自由度(9DoF)で予測する。
本稿では,この課題に対するポーズ一貫性の学習を洗練し,DualPoseNetと略記したDual Pose Networkを提案する。
- 参考スコア(独自算出の注目度): 30.214100288708163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Category-level 6D object pose and size estimation is to predict 9
degrees-of-freedom (9DoF) pose configurations of rotation, translation, and
size for object instances observed in single, arbitrary views of cluttered
scenes. It extends previous related tasks with learning of the two additional
rotation angles. This seemingly small difference poses technical challenges due
to the learning and prediction in the full rotation space of SO(3). In this
paper, we propose a new method of Dual Pose Network with refined learning of
pose consistency for this task, shortened as DualPoseNet. DualPoseNet stacks
two parallel pose decoders on top of a shared pose encoder, where the implicit
decoder predicts object poses with a working mechanism different from that of
the explicit one; they thus impose complementary supervision on the training of
pose encoder. We construct the encoder based on spherical convolutions, and
design a module of Spherical Fusion wherein for a better embedding of
pose-sensitive features from the appearance and shape observations. Given no
the testing CAD models, it is the novel introduction of the implicit decoder
that enables the refined pose prediction during testing, by enforcing the
predicted pose consistency between the two decoders using a self-adaptive loss
term. Thorough experiments on the benchmark 9DoF object pose datasets of
CAMERA25 and REAL275 confirm efficacy of our designs. DualPoseNet outperforms
existing methods with a large margin in the regime of high precision.
- Abstract(参考訳): カテゴリレベルの6Dオブジェクトポーズとサイズ推定は、9度自由度(9DoF)が回転、翻訳、およびオブジェクトのインスタンスのサイズの構成を予測することです。
2つの追加の回転角を学習することで、以前の関連するタスクを拡張する。
この一見小さな違いは、SO(3)の完全な回転空間における学習と予測のために技術的な課題を引き起こします。
本稿では,この課題に対するポーズ一貫性の学習を洗練し,DualPoseNetと略記したDual Pose Networkの新たな手法を提案する。
dualposenetは、共有ポーズエンコーダの上に2つの並列ポーズデコーダを積み重ねる。暗黙のデコーダは、オブジェクトが明示的なものとは異なる動作メカニズムでポーズを予測し、それによって、ポーズエンコーダのトレーニングに補完的な監督を課す。
球面畳み込みに基づくエンコーダを構築し,外観と形状観察によるポーズ感応的な特徴の埋め込み性を向上させる球面融合モジュールを設計した。
テストcadモデルがないと、2つのデコーダ間の予測ポーズ一貫性を自己適応的損失項を用いて強制することにより、テスト中に洗練されたポーズ予測を可能にする暗黙的デコーダの新規導入となる。
CAMERA25およびREAL275のベンチマーク9DoFオブジェクトのポーズデータセットに関する詳細な実験は、当社の設計の有効性を確認します。
DualPoseNetは、高精度な状態において、既存のメソッドよりも大きなマージンを持つ。
関連論文リスト
- SecondPose: SE(3)-Consistent Dual-Stream Feature Fusion for Category-Level Pose Estimation [79.12683101131368]
カテゴリーレベルのオブジェクトのポーズ推定は、既知のカテゴリから6次元のポーズと3次元の大きさを予測することを目的としている。
我々は、DINOv2のセマンティックカテゴリにオブジェクト固有の幾何学的特徴を統合する新しいアプローチであるSecondPoseを提案する。
論文 参考訳(メタデータ) (2023-11-18T17:14:07Z) - RelPose++: Recovering 6D Poses from Sparse-view Observations [66.6922660401558]
スパースビュー画像集合(2-8画像)から6次元カメラポーズを推定する作業に対処する。
我々は,画像対上の相対回転よりも分布を推定するネットワークを学習するRelPoseフレームワークを構築した。
最終システムは,先行技術よりも6次元ポーズ予測を大幅に改善する。
論文 参考訳(メタデータ) (2023-05-08T17:59:58Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - DCL-Net: Deep Correspondence Learning Network for 6D Pose Estimation [43.963630959349885]
本稿では,DCL-Netとして短縮された直接6次元オブジェクトポーズ推定のためのディープ対応学習ネットワークを提案する。
DCL-Netは,YCB-Video,LineMOD,Oclussion-LineMODを含む3つのベンチマークデータセットにおいて,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:04:40Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z) - DSC-PoseNet: Learning 6DoF Object Pose Estimation via Dual-scale
Consistency [43.09728251735362]
2Dオブジェクト境界ボックスから6DoFオブジェクトポーズを得るための2ステップポーズ推定フレームワークを提案する。
最初のステップでは、フレームワークはオブジェクトを実際のデータと合成データからセグメンテーションすることを学ぶ。
第2のステップでは,dsc-posenetという,デュアルスケールなポーズ推定ネットワークを設計する。
提案手法は,合成データに基づいて訓練した最先端のモデルよりも大きなマージンで優れる。
論文 参考訳(メタデータ) (2021-04-08T10:19:35Z) - CAPTRA: CAtegory-level Pose Tracking for Rigid and Articulated Objects
from Point Clouds [97.63549045541296]
新規なリジッドオブジェクトインスタンスに対する9DoFポーズトラッキングと,関節付きオブジェクトに対するパート毎ポーズトラッキングを処理可能な統一フレームワークを提案する。
本手法は、高速なFPS 12で、カテゴリレベルのリジッドオブジェクトポーズ(NOCS-REAL275)と関節オブジェクトポーズベンチマーク(SAPIEN、BMVC)の最新のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-04-08T00:14:58Z) - A Pose Proposal and Refinement Network for Better Object Pose Estimation [0.5735035463793008]
本稿では,RGB入力で動作する,エンドツーエンドの6Dオブジェクトポーズ推定手法を提案する。
提案するパイプラインは、最先端のRGBベースの手法と競合するランタイム性能より優れています。
論文 参考訳(メタデータ) (2020-04-11T23:13:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。