論文の概要: MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare
- arxiv url: http://arxiv.org/abs/2212.06870v1
- Date: Tue, 13 Dec 2022 19:30:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 17:36:50.875611
- Title: MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare
- Title(参考訳): MegaPose: レンダリングと比較による新しいオブジェクトの6次元ポス推定
- Authors: Yann Labb\'e, Lucas Manuelli, Arsalan Mousavian, Stephen Tyree, Stan
Birchfield, Jonathan Tremblay, Justin Carpentier, Mathieu Aubry, Dieter Fox,
Josef Sivic
- Abstract要約: MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 84.80956484848505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce MegaPose, a method to estimate the 6D pose of novel objects,
that is, objects unseen during training. At inference time, the method only
assumes knowledge of (i) a region of interest displaying the object in the
image and (ii) a CAD model of the observed object. The contributions of this
work are threefold. First, we present a 6D pose refiner based on a
render&compare strategy which can be applied to novel objects. The shape and
coordinate system of the novel object are provided as inputs to the network by
rendering multiple synthetic views of the object's CAD model. Second, we
introduce a novel approach for coarse pose estimation which leverages a network
trained to classify whether the pose error between a synthetic rendering and an
observed image of the same object can be corrected by the refiner. Third, we
introduce a large-scale synthetic dataset of photorealistic images of thousands
of objects with diverse visual and shape properties and show that this
diversity is crucial to obtain good generalization performance on novel
objects. We train our approach on this large synthetic dataset and apply it
without retraining to hundreds of novel objects in real images from several
pose estimation benchmarks. Our approach achieves state-of-the-art performance
on the ModelNet and YCB-Video datasets. An extensive evaluation on the 7 core
datasets of the BOP challenge demonstrates that our approach achieves
performance competitive with existing approaches that require access to the
target objects during training. Code, dataset and trained models are available
on the project page: https://megapose6d.github.io/.
- Abstract(参考訳): 本稿では,新しい物体の6次元ポーズ,すなわちトレーニング中に見えない物体を推定する手法であるMegaPoseを紹介する。
推論時に、その方法は知識のみを仮定する
(i)画像中の対象を表示する関心領域、及び
(ii)観測対象物のcadモデル。
この作品の貢献は3倍である。
まず,新規オブジェクトに適用可能なrender&compare戦略に基づく6次元ポーズリファインダを提案する。
新規オブジェクトの形状と座標系は、オブジェクトのCADモデルの複数の合成ビューをレンダリングすることにより、ネットワークへの入力として提供される。
第2に,合成レンダリングと同一物体の観察画像とのポーズ誤差を,精錬者によって補正できるか否かを分類するために訓練されたネットワークを活用した粗いポーズ推定手法を提案する。
第3に,視覚的・形状特性の異なる数千個のオブジェクトの大規模合成画像データセットを導入し,この多様性が新規なオブジェクトに対する優れた一般化性能を得る上で重要であることを示す。
我々は、この大規模な合成データセットにアプローチを訓練し、複数のポーズ推定ベンチマークから実画像中の数百の新しいオブジェクトを再訓練することなく適用する。
提案手法は,ModelNet および YCB-Video データセットの最先端性能を実現する。
BOPチャレンジの7つのコアデータセットに対する広範な評価は、我々のアプローチが、トレーニング中にターゲットオブジェクトへのアクセスを必要とする既存のアプローチと競合する性能を達成することを示す。
コード、データセット、トレーニングされたモデルは、プロジェクトページで見ることができる。
関連論文リスト
- FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - Category-Agnostic 6D Pose Estimation with Conditional Neural Processes [19.387280883044482]
未知物体の6次元ポーズ推定のためのメタラーニング手法を提案する。
本アルゴリズムは,オブジェクトの表現をカテゴリに依存しない方法で学習し,オブジェクトカテゴリをまたいだ強力な一般化機能を実現する。
論文 参考訳(メタデータ) (2022-06-14T20:46:09Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - OVE6D: Object Viewpoint Encoding for Depth-based 6D Object Pose
Estimation [12.773040823634908]
単一深度画像と対象物マスクからモデルに基づく6次元オブジェクトのポーズ推定を行うために,OVE6Dと呼ばれる普遍的なフレームワークを提案する。
われわれのモデルはShapeNetから生成された純粋に合成されたデータを用いて訓練されており、既存のほとんどの方法とは異なり、微調整なしで新しい現実世界のオブジェクトをうまく一般化する。
OVE6Dは、現実世界のトレーニングデータを用いて、個々のオブジェクトやデータセットに特化して訓練された、現代の深層学習に基づくポーズ推定手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-02T12:51:33Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z) - 3D Reconstruction of Novel Object Shapes from Single Images [23.016517962380323]
提案するSDFNetは,目に見える形状と見えない形状の最先端性能を実現する。
本研究は, 画像形状再構成の大規模評価を行った最初の試みである。
論文 参考訳(メタデータ) (2020-06-14T00:34:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。