論文の概要: Continuous Surface Embeddings
- arxiv url: http://arxiv.org/abs/2011.12438v1
- Date: Tue, 24 Nov 2020 22:52:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:36:26.399678
- Title: Continuous Surface Embeddings
- Title(参考訳): 連続表面埋め込み
- Authors: Natalia Neverova, David Novotny, Vasil Khalidov, Marc Szafraniec,
Patrick Labatut, Andrea Vedaldi
- Abstract要約: 我々は、変形可能な対象カテゴリーにおける密接な対応を学習し、表現するタスクに焦点をあてる。
本稿では,高密度対応の新たな学習可能な画像ベース表現を提案する。
提案手法は,人間の身近なポーズ推定のための最先端手法と同等以上の性能を示すことを示す。
- 参考スコア(独自算出の注目度): 76.86259029442624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we focus on the task of learning and representing dense
correspondences in deformable object categories. While this problem has been
considered before, solutions so far have been rather ad-hoc for specific object
types (i.e., humans), often with significant manual work involved. However,
scaling the geometry understanding to all objects in nature requires more
automated approaches that can also express correspondences between related, but
geometrically different objects. To this end, we propose a new, learnable
image-based representation of dense correspondences. Our model predicts, for
each pixel in a 2D image, an embedding vector of the corresponding vertex in
the object mesh, therefore establishing dense correspondences between image
pixels and 3D object geometry. We demonstrate that the proposed approach
performs on par or better than the state-of-the-art methods for dense pose
estimation for humans, while being conceptually simpler. We also collect a new
in-the-wild dataset of dense correspondences for animal classes and demonstrate
that our framework scales naturally to the new deformable object categories.
- Abstract(参考訳): 本研究は,変形可能な対象カテゴリーにおける密接な対応を学習し,表現することに焦点を当てる。
この問題はこれまで検討されてきたが、これまでのソリューションは特定のオブジェクトタイプ(例えば、人間)に対するアドホックであり、多くの場合、重要な手動作業を伴う。
しかし、自然界のすべてのオブジェクトに対する幾何学的理解をスケールするには、関連するが幾何学的に異なるオブジェクト間の対応を表現できる、より自動化されたアプローチが必要である。
そこで本研究では,高密度対応の新たな学習可能な画像表現を提案する。
本モデルでは,2次元画像の各画素に対して,対応する頂点をオブジェクトメッシュに埋め込むベクトルを推定し,画像画素と3次元オブジェクト形状との密接な対応性を確立する。
提案手法は, 概念上は単純でありながら, 人間の身近なポーズ推定法と同等以上の性能を示すことを示す。
また,動物クラスの密接な対応のデータセットを新たに収集し,新たな変形可能なオブジェクトカテゴリに対して,フレームワークが自然にスケールすることを示す。
関連論文リスト
- Interior Object Geometry via Fitted Frames [18.564031163436553]
本稿では,対象集団内での強い位置対応を実現するために,解剖学的対象を対象とする表現について述べる。
本手法は, 境界面および物体内部に嵌合したフレームを生成し, それらからアライメントフリーな幾何学的特徴を生成する。
論文 参考訳(メタデータ) (2024-07-19T14:38:47Z) - GS-Pose: Category-Level Object Pose Estimation via Geometric and
Semantic Correspondence [5.500735640045456]
カテゴリーレベルのポーズ推定は、コンピュータビジョンやロボット工学における多くの潜在的な応用において難しい課題である。
本稿では,事前学習した基礎モデルから得られる幾何学的特徴と意味的特徴の両方を活用することを提案する。
これは、セマンティックな特徴がオブジェクトのテクスチャや外観に対して堅牢であるため、以前のメソッドよりもトレーニングするデータを大幅に少なくする。
論文 参考訳(メタデータ) (2023-11-23T02:35:38Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Generative Category-Level Shape and Pose Estimation with Semantic
Primitives [27.692997522812615]
本稿では,1枚のRGB-D画像からカテゴリレベルのオブジェクト形状とポーズ推定を行う新しいフレームワークを提案する。
カテゴリ内変動に対処するために、様々な形状を統一された潜在空間にエンコードするセマンティックプリミティブ表現を採用する。
提案手法は,実世界のデータセットにおいて,SOTAのポーズ推定性能とより優れた一般化を実現する。
論文 参考訳(メタデータ) (2022-10-03T17:51:54Z) - Category-Agnostic 6D Pose Estimation with Conditional Neural Processes [19.387280883044482]
未知物体の6次元ポーズ推定のためのメタラーニング手法を提案する。
本アルゴリズムは,オブジェクトの表現をカテゴリに依存しない方法で学習し,オブジェクトカテゴリをまたいだ強力な一般化機能を実現する。
論文 参考訳(メタデータ) (2022-06-14T20:46:09Z) - Disentangled Implicit Shape and Pose Learning for Scalable 6D Pose
Estimation [44.8872454995923]
単一オートエンコーダを用いた複数オブジェクトの合成データに対する自己教師付き学習により,スケーラブルな6次元ポーズ推定のための新しい手法を提案する。
提案手法は,T-LESS と NOCS REAL275 という実データを持つ2つのマルチオブジェクトベンチマークで検証し,ポーズ推定精度と一般化の点で既存の RGB 法より優れていることを示す。
論文 参考訳(メタデータ) (2021-07-27T01:55:30Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - Joint Deep Multi-Graph Matching and 3D Geometry Learning from
Inhomogeneous 2D Image Collections [57.60094385551773]
非均質な画像コレクションから変形可能な3Dジオメトリモデルを学ぶためのトレーニング可能なフレームワークを提案する。
さらに,2次元画像で表現された物体の3次元形状も取得する。
論文 参考訳(メタデータ) (2021-03-31T17:25:36Z) - Canonical 3D Deformer Maps: Unifying parametric and non-parametric
methods for dense weakly-supervised category reconstruction [79.98689027127855]
独立オブジェクトの2次元画像の集合から学習できる共通オブジェクトカテゴリの3次元形状の表現を提案する。
提案手法は, パラメトリック変形モデル, 非パラメトリック3次元再構成, 標準埋め込みの概念に基づく新しい手法で構築する。
顔、車、鳥の野生のデータセットを3Dで再現することで、最先端の成果が得られます。
論文 参考訳(メタデータ) (2020-08-28T15:44:05Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。