論文の概要: CRT-6D: Fast 6D Object Pose Estimation with Cascaded Refinement
Transformers
- arxiv url: http://arxiv.org/abs/2210.11718v1
- Date: Fri, 21 Oct 2022 04:06:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 14:10:08.460758
- Title: CRT-6D: Fast 6D Object Pose Estimation with Cascaded Refinement
Transformers
- Title(参考訳): crt-6d:逐次改良トランスを用いた高速6次元物体ポーズ推定
- Authors: Pedro Castro and Tae-Kyun Kim
- Abstract要約: 本稿では,CRT-6D(Cascaded Refinement Transformers)と呼ぶ新しい手法を提案する。
一般的に使用される高密度中間表現を,Os(Object Keypoint Features)と呼ばれる機能ピラミッドからサンプリングされた,各要素がオブジェクトキーポイントに対応するスパースな機能セットに置き換える。
一つのモデル上で最大21個のオブジェクトをサポートしながら,最も近いリアルタイム状態よりも2倍高速な推論を実現する。
- 参考スコア(独自算出の注目度): 51.142988196855484
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning based 6D object pose estimation methods rely on computing large
intermediate pose representations and/or iteratively refining an initial
estimation with a slow render-compare pipeline. This paper introduces a novel
method we call Cascaded Pose Refinement Transformers, or CRT-6D. We replace the
commonly used dense intermediate representation with a sparse set of features
sampled from the feature pyramid we call OSKFs(Object Surface Keypoint
Features) where each element corresponds to an object keypoint. We employ
lightweight deformable transformers and chain them together to iteratively
refine proposed poses over the sampled OSKFs. We achieve inference runtimes 2x
faster than the closest real-time state of the art methods while supporting up
to 21 objects on a single model. We demonstrate the effectiveness of CRT-6D by
performing extensive experiments on the LM-O and YCBV datasets. Compared to
real-time methods, we achieve state of the art on LM-O and YCB-V, falling
slightly behind methods with inference runtimes one order of magnitude higher.
The source code is available at: https://github.com/PedroCastro/CRT-6D
- Abstract(参考訳): 学習に基づく6次元オブジェクトポーズ推定手法は、大きな中間ポーズ表現の計算と、遅いレンダリングコンプリートパイプラインによる初期推定の反復的洗練に依存している。
本稿ではCRT-6D(Cascaded Pose Refinement Transformers)と呼ぶ新しい手法を提案する。
各要素がオブジェクトキーポイントに対応するoskfs(object surface keypoint features)と呼ばれる機能ピラミッドからサンプリングしたスパースな機能セットに、一般的に使用される高密度中間表現を置き換えます。
我々は軽量な変形可能な変圧器を用いて、サンプルOSKF上で提案されたポーズを反復的に洗練する。
1つのモデルで最大21オブジェクトをサポートしながら、最も近いartメソッドのリアルタイム状態よりも2倍早く推論ランタイムを実現する。
LM-OおよびYCBVデータセットの広範な実験を行うことにより,CRT-6Dの有効性を示す。
実時間法と比較して, LM-O と YCB-V の手法は, 推定ランタイムが 1 桁高い手法よりわずかに遅れている。
ソースコードはhttps://github.com/pedrocastro/crt-6d
関連論文リスト
- RDPN6D: Residual-based Dense Point-wise Network for 6Dof Object Pose Estimation Based on RGB-D Images [13.051302134031808]
単一のRGB-D画像を用いてオブジェクトの6DoFポーズを計算する新しい手法を提案する。
オブジェクトのポーズを直接予測する既存の手法や、ポーズ回復のためのスパースキーポイントに依存する既存の手法とは異なり、我々のアプローチは密度の高い対応を使ってこの課題に対処する。
論文 参考訳(メタデータ) (2024-05-14T10:10:45Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - MPF6D: Masked Pyramid Fusion 6D Pose Estimation [1.2891210250935146]
提案手法では,提案手法の精度を向上させるため,物体の6次元ポーズを推定する手法を提案する。
提案手法は, 推定時間0.12秒でリアルタイムに利用でき, 精度が高い。
論文 参考訳(メタデータ) (2021-11-17T20:23:54Z) - T6D-Direct: Transformers for Multi-Object 6D Pose Direct Regression [40.90172673391803]
T6D-Directは、DreTR上に構築され、6次元多目的ポーズ直接推定を行うトランスフォーマーベースのリアルタイム単一ステージ直接法である。
提案手法は最も高速な推定時間を実現し,ポーズ推定精度は最先端の手法に匹敵する。
論文 参考訳(メタデータ) (2021-09-22T18:13:33Z) - FS-Net: Fast Shape-based Network for Category-Level 6D Object Pose
Estimation with Decoupled Rotation Mechanism [49.89268018642999]
6次元ポーズ推定のための効率的なカテゴリレベルの特徴抽出が可能な高速形状ベースネットワーク(FS-Net)を提案する。
提案手法は,カテゴリレベルおよびインスタンスレベルの6Dオブジェクトのポーズ推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-12T03:07:24Z) - GDR-Net: Geometry-Guided Direct Regression Network for Monocular 6D
Object Pose Estimation [71.83992173720311]
単一のRGB画像からの6次元ポーズ推定はコンピュータビジョンの基本課題である。
GDR-Net(Geometry-Guided Direct Regression Network)を用いて6Dポーズをエンドツーエンドで学習する。
提案手法は, LM, LM-O, YCB-Vデータセットの最先端手法よりも優れている。
論文 参考訳(メタデータ) (2021-02-24T09:11:31Z) - PrimA6D: Rotational Primitive Reconstruction for Enhanced and Robust 6D
Pose Estimation [11.873744190924599]
本稿では,1つの画像を入力として,回転プリミティブに基づく6次元オブジェクトポーズ推定を提案する。
変分オートエンコーダ(VAE)を利用して、基礎となるプリミティブとその関連するキーポイントを学習する。
公開データセットに対して評価すると,LINEMOD,Occlusion LINEMOD,およびY誘発データセットよりも顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-06-14T03:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。