論文の概要: Category-Agnostic 6D Pose Estimation with Conditional Neural Processes
- arxiv url: http://arxiv.org/abs/2206.07162v2
- Date: Thu, 19 Oct 2023 09:32:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 21:34:48.197809
- Title: Category-Agnostic 6D Pose Estimation with Conditional Neural Processes
- Title(参考訳): 条件付きニューラルプロセスを用いたカテゴリー非依存6次元ポーズ推定
- Authors: Yumeng Li, Ning Gao, Hanna Ziesche, Gerhard Neumann
- Abstract要約: 未知物体の6次元ポーズ推定のためのメタラーニング手法を提案する。
本アルゴリズムは,オブジェクトの表現をカテゴリに依存しない方法で学習し,オブジェクトカテゴリをまたいだ強力な一般化機能を実現する。
- 参考スコア(独自算出の注目度): 19.387280883044482
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a novel meta-learning approach for 6D pose estimation on unknown
objects. In contrast to ``instance-level" and ``category-level" pose estimation
methods, our algorithm learns object representation in a category-agnostic way,
which endows it with strong generalization capabilities across object
categories. Specifically, we employ a neural process-based meta-learning
approach to train an encoder to capture texture and geometry of an object in a
latent representation, based on very few RGB-D images and ground-truth
keypoints. The latent representation is then used by a simultaneously
meta-trained decoder to predict the 6D pose of the object in new images.
Furthermore, we propose a novel geometry-aware decoder for the keypoint
prediction using a Graph Neural Network (GNN), which explicitly takes geometric
constraints specific to each object into consideration. To evaluate our
algorithm, extensive experiments are conducted on the \linemod dataset, and on
our new fully-annotated synthetic datasets generated from Multiple Categories
in Multiple Scenes (MCMS). Experimental results demonstrate that our model
performs well on unseen objects with very different shapes and appearances.
Remarkably, our model also shows robust performance on occluded scenes although
trained fully on data without occlusion. To our knowledge, this is the first
work exploring \textbf{cross-category level} 6D pose estimation.
- Abstract(参考訳): 未知物体の6次元ポーズ推定のためのメタラーニング手法を提案する。
instance-level" や ``category-level" のポーズ推定手法とは対照的に,このアルゴリズムでは,オブジェクトの表現をカテゴリに依存しない方法で学習する。
具体的には、非常に少ないrgb-d画像と接地キーポイントに基づいて、エンコーダをトレーニングして、潜在表現でオブジェクトのテクスチャと形状をキャプチャする、ニューラルプロセスに基づくメタラーニング手法を採用する。
遅延表現は同時にメタトレーニングされたデコーダによって使われ、新しい画像におけるオブジェクトの6Dポーズを予測する。
さらに,各対象に特有の幾何学的制約を明示的に考慮したグラフニューラルネットワーク(gnn)を用いた,キーポイント予測のための新しい幾何認識デコーダを提案する。
提案アルゴリズムを評価するために,<linemod</line>データセットと,複数のカテゴリから生成された完全注釈付き合成データセット(MCMS)について広範な実験を行った。
実験結果から,本モデルは形状や外観の異なる未確認物体に対して良好に動作することが示された。
また,オクルージョンを伴わずに完全にデータに基づいて学習したにもかかわらず,オクルードシーンにおけるロバストな性能を示す。
私たちの知る限り、これは \textbf{cross-category level} 6次元ポーズ推定を探求する最初の仕事です。
関連論文リスト
- FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Robust Category-Level 6D Pose Estimation with Coarse-to-Fine Rendering
of Neural Features [17.920305227880245]
1枚のRGB画像からカテゴリレベルの6Dポーズ推定の問題を考察する。
提案手法は,対象カテゴリを立方体メッシュとして表現し,各メッシュにおける神経機能アクティベーションの生成モデルを学習する。
実験では,先行作業と比較して,カテゴリレベルの6次元ポーズ推定性能が向上した。
論文 参考訳(メタデータ) (2022-09-12T21:31:36Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - OVE6D: Object Viewpoint Encoding for Depth-based 6D Object Pose
Estimation [12.773040823634908]
単一深度画像と対象物マスクからモデルに基づく6次元オブジェクトのポーズ推定を行うために,OVE6Dと呼ばれる普遍的なフレームワークを提案する。
われわれのモデルはShapeNetから生成された純粋に合成されたデータを用いて訓練されており、既存のほとんどの方法とは異なり、微調整なしで新しい現実世界のオブジェクトをうまく一般化する。
OVE6Dは、現実世界のトレーニングデータを用いて、個々のオブジェクトやデータセットに特化して訓練された、現代の深層学習に基づくポーズ推定手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-02T12:51:33Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。