論文の概要: Leveraging SE(3) Equivariance for Self-Supervised Category-Level Object
Pose Estimation
- arxiv url: http://arxiv.org/abs/2111.00190v1
- Date: Sat, 30 Oct 2021 06:46:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 10:10:58.737570
- Title: Leveraging SE(3) Equivariance for Self-Supervised Category-Level Object
Pose Estimation
- Title(参考訳): 自己監督型カテゴリーレベルオブジェクトポーズ推定におけるSE(3)の等価性
- Authors: Xiaolong Li, Yijia Weng, Li Yi, Leonidas Guibas, A. Lynn Abbott,
Shuran Song, He Wang
- Abstract要約: カテゴリーレベルのオブジェクトポーズ推定は、オブジェクトCADモデルにアクセスすることなく、既知のカテゴリから未確認のオブジェクトインスタンスの6Dオブジェクトポーズを見つけることを目的としている。
本研究では,1つの3次元点群からカテゴリレベルの6次元オブジェクトのポーズを推定する自己教師型学習フレームワークを初めて提案する。
- 参考スコア(独自算出の注目度): 30.04752448942084
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Category-level object pose estimation aims to find 6D object poses of
previously unseen object instances from known categories without access to
object CAD models. To reduce the huge amount of pose annotations needed for
category-level learning, we propose for the first time a self-supervised
learning framework to estimate category-level 6D object pose from single 3D
point clouds.During training, our method assumes no ground-truth pose
annotations, no CAD models, and no multi-view supervision. The key to our
method is to disentangle shape and pose through an invariant shape
reconstruction module and an equivariant pose estimation module, empowered by
SE(3) equivariant point cloud networks.The invariant shape reconstruction
module learns to perform aligned reconstructions, yielding a category-level
reference frame without using any annotations. In addition, the equivariant
pose estimation module achieves category-level pose estimation accuracy that is
comparable to some fully supervised methods. Extensive experiments demonstrate
the effectiveness of our approach on both complete and partial depth point
clouds from the ModelNet40 benchmark, and on real depth point clouds from the
NOCS-REAL 275 dataset. The project page with code and visualizations can be
found at: https://dragonlong.github.io/equi-pose.
- Abstract(参考訳): カテゴリーレベルのオブジェクトポーズ推定は、オブジェクトCADモデルにアクセスすることなく、既知のカテゴリから未確認のオブジェクトインスタンスの6Dオブジェクトポーズを見つけることを目的としている。
カテゴリーレベルの学習に必要なポーズアノテーションを少なくするため,一点の3D点群からカテゴリレベルの6Dオブジェクトのポーズを推定する自己教師型学習フレームワークを提案する。
提案手法の鍵となるのは,SE(3)等変点クラウドネットワークによって強化された,不変形状再構成モジュールと同変ポーズ推定モジュールを介し,整列再構成を行い,アノテーションを使わずにカテゴリレベルの参照フレームを生成することである。
さらに、同変ポーズ推定モジュールは、いくつかの完全教師付き手法に匹敵するカテゴリレベルのポーズ推定精度を達成する。
大規模な実験では,ModelNet40ベンチマークによる完全および部分深度点雲,NOCS-REAL 275データセットによる実深度点雲に対するアプローチの有効性が示された。
コードと視覚化を備えたプロジェクトページは、https://dragonlong.github.io/equi-poseで見ることができる。
関連論文リスト
- Diffusion-Driven Self-Supervised Learning for Shape Reconstruction and Pose Estimation [26.982199143972835]
本稿では,多目的形状再構成とカテゴリー的ポーズ推定のための拡散駆動型自己教師ネットワークを提案する。
提案手法は,最先端の自己監督型カテゴリレベルのベースラインを著しく上回り,完全教師型インスタンスレベルのメソッドやカテゴリレベルのメソッドをはるかに上回っている。
論文 参考訳(メタデータ) (2024-03-19T13:43:27Z) - FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - OnePose++: Keypoint-Free One-Shot Object Pose Estimation without CAD
Models [51.68715543630427]
OnePoseは繰り返し可能なイメージキーポイントの検出に依存しているので、低テクスチャオブジェクトで失敗する傾向がある。
繰り返し可能なキーポイント検出の必要性を取り除くために,キーポイントフリーポーズ推定パイプラインを提案する。
2D-3Dマッチングネットワークは、クエリ画像と再構成されたポイントクラウドモデルとの間の2D-3D対応を直接確立する。
論文 参考訳(メタデータ) (2023-01-18T17:47:13Z) - Generative Category-Level Shape and Pose Estimation with Semantic
Primitives [27.692997522812615]
本稿では,1枚のRGB-D画像からカテゴリレベルのオブジェクト形状とポーズ推定を行う新しいフレームワークを提案する。
カテゴリ内変動に対処するために、様々な形状を統一された潜在空間にエンコードするセマンティックプリミティブ表現を採用する。
提案手法は,実世界のデータセットにおいて,SOTAのポーズ推定性能とより優れた一般化を実現する。
論文 参考訳(メタデータ) (2022-10-03T17:51:54Z) - OnePose: One-Shot Object Pose Estimation without CAD Models [30.307122037051126]
OnePoseはCADモデルに依存しておらず、インスタンスやカテゴリ固有のネットワークトレーニングなしで任意のカテゴリのオブジェクトを処理できる。
OnePoseは視覚的なローカライゼーションからアイデアを導き、オブジェクトのスパースSfMモデルを構築するために、オブジェクトの単純なRGBビデオスキャンしか必要としない。
既存の視覚的ローカライゼーション手法の低速な実行を緩和するため,クエリ画像中の2D関心点とSfMモデルの3Dポイントとを直接マッチングするグラフアテンションネットワークを提案する。
論文 参考訳(メタデータ) (2022-05-24T17:59:21Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - CAPTRA: CAtegory-level Pose Tracking for Rigid and Articulated Objects
from Point Clouds [97.63549045541296]
新規なリジッドオブジェクトインスタンスに対する9DoFポーズトラッキングと,関節付きオブジェクトに対するパート毎ポーズトラッキングを処理可能な統一フレームワークを提案する。
本手法は、高速なFPS 12で、カテゴリレベルのリジッドオブジェクトポーズ(NOCS-REAL275)と関節オブジェクトポーズベンチマーク(SAPIEN、BMVC)の最新のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-04-08T00:14:58Z) - 3D Object Classification on Partial Point Clouds: A Practical
Perspective [91.81377258830703]
点雲は3次元オブジェクト分類において一般的な形状表現である。
本稿では,任意のポーズの下でオブジェクトインスタンスの部分点雲を分類する実践的な設定を提案する。
本稿では,アライメント分類手法による新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-18T04:00:56Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。