論文の概要: Templates for 3D Object Pose Estimation Revisited: Generalization to New
Objects and Robustness to Occlusions
- arxiv url: http://arxiv.org/abs/2203.17234v1
- Date: Thu, 31 Mar 2022 17:50:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 15:45:24.748738
- Title: Templates for 3D Object Pose Estimation Revisited: Generalization to New
Objects and Robustness to Occlusions
- Title(参考訳): 3Dオブジェクトポス推定のためのテンプレート再検討:新しいオブジェクトへの一般化とオクルージョンへのロバスト性
- Authors: Van Nguyen Nguyen, Yinlin Hu, Yang Xiao, Mathieu Salzmann, Vincent
Lepetit
- Abstract要約: 本稿では,新しい物体を認識でき,RGB画像の3次元ポーズを部分閉塞下でも推定できる手法を提案する。
ローカルオブジェクト表現を学習するために、トレーニングオブジェクトの小さなセットに依存します。
LINEMOD と Occlusion-LINEMOD のデータセットを再トレーニングせずに一般化を示すのはこれが初めてである。
- 参考スコア(独自算出の注目度): 79.34847067293649
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method that can recognize new objects and estimate their 3D pose
in RGB images even under partial occlusions. Our method requires neither a
training phase on these objects nor real images depicting them, only their CAD
models. It relies on a small set of training objects to learn local object
representations, which allow us to locally match the input image to a set of
"templates", rendered images of the CAD models for the new objects. In contrast
with the state-of-the-art methods, the new objects on which our method is
applied can be very different from the training objects. As a result, we are
the first to show generalization without retraining on the LINEMOD and
Occlusion-LINEMOD datasets. Our analysis of the failure modes of previous
template-based approaches further confirms the benefits of local features for
template matching. We outperform the state-of-the-art template matching methods
on the LINEMOD, Occlusion-LINEMOD and T-LESS datasets. Our source code and data
are publicly available at https://github.com/nv-nguyen/template-pose
- Abstract(参考訳): 本稿では,新しい物体を認識でき,RGB画像の3次元ポーズを部分閉塞下でも推定できる手法を提案する。
本手法では,これらのオブジェクトのトレーニングフェーズも,CADモデルのみの実際の画像も必要としない。
これは、ローカルオブジェクト表現を学ぶための小さなトレーニングオブジェクトセットに依存しており、入力されたイメージを新しいオブジェクトのcadモデルのレンダリングされた一連の"テンプレート"にローカルにマッチさせることができる。
最先端の手法とは対照的に,本手法を適用した新しいオブジェクトは,トレーニング対象とは大きく異なる。
その結果、LINEMOD と Occlusion-LINEMOD のデータセットを再トレーニングすることなく、一般化を初めて示す。
従来のテンプレートベースアプローチの障害モードの解析は,テンプレートマッチングに対するローカル機能のメリットをさらに裏付けるものだ。
我々はLINEMOD, Occlusion-LINEMOD, T-LESSデータセットにおける最先端のテンプレートマッチング手法より優れている。
ソースコードとデータはhttps://github.com/nv-nguyen/template-poseで公開されている。
関連論文リスト
- FoundPose: Unseen Object Pose Estimation with Foundation Features [11.32559845631345]
FoundPoseは、単一のRGB画像から見えないオブジェクトを6Dポーズで推定するモデルベースの手法である。
この方法は、オブジェクトやタスク固有のトレーニングを必要とせずに、3Dモデルを使って、新しいオブジェクトを素早くオンボードできる。
論文 参考訳(メタデータ) (2023-11-30T18:52:29Z) - NOPE: Novel Object Pose Estimation from a Single Image [67.11073133072527]
本稿では,新しいオブジェクトの1つのイメージを入力として取り込んで,オブジェクトの3Dモデルに関する事前知識を必要とせずに,新しいイメージにおけるオブジェクトの相対的なポーズを予測するアプローチを提案する。
我々は、オブジェクトを取り巻く視点に対する識別的埋め込みを直接予測するモデルを訓練することで、これを実現する。
この予測は単純なU-Netアーキテクチャを用いて行われ、要求されたポーズに注意を向け、条件を定め、非常に高速な推論をもたらす。
論文 参考訳(メタデータ) (2023-03-23T18:55:43Z) - OnePose++: Keypoint-Free One-Shot Object Pose Estimation without CAD
Models [51.68715543630427]
OnePoseは繰り返し可能なイメージキーポイントの検出に依存しているので、低テクスチャオブジェクトで失敗する傾向がある。
繰り返し可能なキーポイント検出の必要性を取り除くために,キーポイントフリーポーズ推定パイプラインを提案する。
2D-3Dマッチングネットワークは、クエリ画像と再構成されたポイントクラウドモデルとの間の2D-3D対応を直接確立する。
論文 参考訳(メタデータ) (2023-01-18T17:47:13Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Multi-Category Mesh Reconstruction From Image Collections [90.24365811344987]
本稿では, 一連の変形可能な3次元モデルとインスタンス固有の変形, ポーズ, テクスチャのセットを組み合わせた, オブジェクトのテクスチャメッシュを推定する手法を提案する。
本手法は,前景マスクと粗いカメラポーズのみを監督として,複数の対象カテゴリの画像を用いて訓練する。
実験により,提案フレームワークは異なる対象カテゴリを区別し,教師なしの方法でカテゴリ固有の形状を学習できることが示唆された。
論文 参考訳(メタデータ) (2021-10-21T16:32:31Z) - 3D Object Detection and Pose Estimation of Unseen Objects in Color
Images with Local Surface Embeddings [35.769234123059086]
本研究では, 画像中のオブジェクトの3次元ポーズを, テクスチャのないCADモデルでのみ検出し, 推定する手法を提案する。
我々のアプローチはディープラーニングと3D幾何を組み合わせており、CADモデルと入力画像とを一致させるために、局所的な3D幾何の埋め込みに依存している。
我々は,Mask-RCNNをクラスに依存しない方法で,再学習せずに新しい物体を検出できることを示す。
論文 参考訳(メタデータ) (2020-10-08T15:57:06Z) - Canonical 3D Deformer Maps: Unifying parametric and non-parametric
methods for dense weakly-supervised category reconstruction [79.98689027127855]
独立オブジェクトの2次元画像の集合から学習できる共通オブジェクトカテゴリの3次元形状の表現を提案する。
提案手法は, パラメトリック変形モデル, 非パラメトリック3次元再構成, 標準埋め込みの概念に基づく新しい手法で構築する。
顔、車、鳥の野生のデータセットを3Dで再現することで、最先端の成果が得られます。
論文 参考訳(メタデータ) (2020-08-28T15:44:05Z) - Neural Object Learning for 6D Pose Estimation Using a Few Cluttered
Images [30.240630713652035]
近年のオブジェクトの6次元ポーズ推定手法は、テクスチャ化された3次元モデルか、ターゲットポーズの全範囲をカバーする実像のいずれかを仮定している。
本稿では,乱雑な画像からのわずかな観察を組み合わせ,任意のポーズでオブジェクトの合成画像を生成するニューラルオブジェクト学習(NOL)を提案する。
論文 参考訳(メタデータ) (2020-05-07T19:33:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。