論文の概要: Prior-free Category-level Pose Estimation with Implicit Space
Transformation
- arxiv url: http://arxiv.org/abs/2303.13479v1
- Date: Thu, 23 Mar 2023 17:48:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 13:04:13.476853
- Title: Prior-free Category-level Pose Estimation with Implicit Space
Transformation
- Title(参考訳): 暗黙空間変換を用いた事前自由カテゴリレベルポーズ推定
- Authors: Jianhui Liu, Yukang Chen, Xiaoqing Ye, Xiaojuan Qi
- Abstract要約: カテゴリーレベルの6Dポーズ推定は、特定のカテゴリから見えないオブジェクトのポーズとサイズを予測することを目的としている。
与えられたオブジェクトインスタンスの前にカテゴリ固有の3Dを明示的に適応する事前変形のおかげで、事前ベースの手法は大きな成功を収め、主要な研究ストリームとなった。
カメラ空間の機能を世界空間に変換し、3D先行を頼らずに暗黙的に対応性を構築するための、単純な事前自由な暗黙空間変換ネットワーク、IST-Netを導入する。
- 参考スコア(独自算出の注目度): 39.6433705759858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Category-level 6D pose estimation aims to predict the poses and sizes of
unseen objects from a specific category. Thanks to prior deformation, which
explicitly adapts a category-specific 3D prior (i.e., a 3D template) to a given
object instance, prior-based methods attained great success and have become a
major research stream. However, obtaining category-specific priors requires
collecting a large amount of 3D models, which is labor-consuming and often not
accessible in practice. This motivates us to investigate whether priors are
necessary to make prior-based methods effective. Our empirical study shows that
the 3D prior itself is not the credit to the high performance. The keypoint
actually is the explicit deformation process, which aligns camera and world
coordinates supervised by world-space 3D models (also called canonical space).
Inspired by these observation, we introduce a simple prior-free implicit space
transformation network, namely IST-Net, to transform camera-space features to
world-space counterparts and build correspondence between them in an implicit
manner without relying on 3D priors. Besides, we design camera- and world-space
enhancers to enrich the features with pose-sensitive information and
geometrical constraints, respectively. Albeit simple, IST-Net becomes the first
prior-free method that achieves state-of-the-art performance, with top
inference speed on the REAL275 dataset. Our code and models will be publicly
available.
- Abstract(参考訳): カテゴリーレベルの6Dポーズ推定は、特定のカテゴリから見えないオブジェクトのポーズとサイズを予測することを目的としている。
カテゴリ固有の3D事前(すなわち3Dテンプレート)を与えられたオブジェクトインスタンスに明示的に適応する事前変形のおかげで、事前ベースの手法は大きな成功を収め、主要な研究ストリームとなった。
しかし、カテゴリー固有の先行データを取得するには、大量の3Dモデルを集める必要がある。
これは、事前手法を効果的にするために、事前が必要かどうかを調査する動機となる。
我々の実証研究は、3Dの先行技術自体がハイパフォーマンスの功績ではないことを示している。
これは、世界空間の3dモデル(正準空間とも呼ばれる)によって監視されるカメラと世界座標を調整するものである。
これらの観測に触発されて、カメラ空間の機能を世界空間に変換し、3D先行を頼らずに暗黙的に対応を構築するための、単純な事前自由な暗黙空間変換ネットワーク、IST-Netを導入する。
さらに,カメラと世界空間のエンハンサーを設計し,それぞれにポーズ感性情報と幾何学的制約を付加する。
単純なことだが、IST-NetはREAL275データセット上で最高の推論速度で最先端のパフォーマンスを達成する最初の先行フリーメソッドとなる。
私たちのコードとモデルは公開されます。
関連論文リスト
- General Geometry-aware Weakly Supervised 3D Object Detection [62.26729317523975]
RGB画像と関連する2Dボックスから3Dオブジェクト検出器を学習するための統合フレームワークを開発した。
KITTIとSUN-RGBDデータセットの実験により,本手法は驚くほど高品質な3次元境界ボックスを2次元アノテーションで生成することを示した。
論文 参考訳(メタデータ) (2024-07-18T17:52:08Z) - Unsupervised Learning of Category-Level 3D Pose from Object-Centric Videos [15.532504015622159]
カテゴリーレベルの3Dポーズ推定は、コンピュータビジョンとロボット工学において基本的に重要な問題である。
カテゴリーレベルの3Dポーズを,カジュアルに撮られた対象中心の動画からのみ推定する学習の課題に取り組む。
論文 参考訳(メタデータ) (2024-07-05T09:43:05Z) - SAI3D: Segment Any Instance in 3D Scenes [68.57002591841034]
新規なゼロショット3Dインスタンスセグメンテーション手法であるSAI3Dを紹介する。
我々の手法は3Dシーンを幾何学的プリミティブに分割し、段階的に3Dインスタンスセグメンテーションにマージする。
ScanNet、Matterport3D、さらに難しいScanNet++データセットに関する実証的な評価は、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2023-12-17T09:05:47Z) - Open-Pose 3D Zero-Shot Learning: Benchmark and Challenges [23.663199578392447]
オープンポジション3Dゼロショット分類という,より現実的で困難なシナリオを提案する。
まず,3次元ゼロショット分類に関する現在の研究について再考する。
オープンな設定に特化して設計されたベンチマークデータセットを2つ提案する。
論文 参考訳(メタデータ) (2023-12-12T07:52:33Z) - ShapeShift: Superquadric-based Object Pose Estimation for Robotic
Grasping [85.38689479346276]
現在の技術は参照3Dオブジェクトに大きく依存しており、その一般化性を制限し、新しいオブジェクトカテゴリに拡張するのにコストがかかる。
本稿では,オブジェクトに適合するプリミティブな形状に対してオブジェクトのポーズを予測する,オブジェクトのポーズ推定のためのスーパークワッドリックベースのフレームワークであるShapeShiftを提案する。
論文 参考訳(メタデータ) (2023-04-10T20:55:41Z) - NOPE: Novel Object Pose Estimation from a Single Image [67.11073133072527]
本稿では,新しいオブジェクトの1つのイメージを入力として取り込んで,オブジェクトの3Dモデルに関する事前知識を必要とせずに,新しいイメージにおけるオブジェクトの相対的なポーズを予測するアプローチを提案する。
我々は、オブジェクトを取り巻く視点に対する識別的埋め込みを直接予測するモデルを訓練することで、これを実現する。
この予測は単純なU-Netアーキテクチャを用いて行われ、要求されたポーズに注意を向け、条件を定め、非常に高速な推論をもたらす。
論文 参考訳(メタデータ) (2023-03-23T18:55:43Z) - Self-Supervised Geometric Correspondence for Category-Level 6D Object
Pose Estimation in the Wild [47.80637472803838]
本研究では,大規模現実世界のオブジェクトビデオを直接学習し,カテゴリーレベルの6Dポーズ推定を行う自己教師型学習手法を提案する。
本フレームワークは,対象カテゴリの正準3次元形状を再構成し,入力画像と正準形状との密接な対応を表面埋め込みにより学習する。
意外なことに、人間のアノテーションやシミュレータを使わずに、従来の教師付きあるいは半教師付き画像の半教師付き手法よりも、オンパーまたはそれ以上のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2022-10-13T17:19:22Z) - Optimal and Robust Category-level Perception: Object Pose and Shape
Estimation from 2D and 3D Semantic Keypoints [24.232254155643574]
与えられたカテゴリ(例えば車)のオブジェクトを撮影する2Dまたは3Dセンサデータを取得し、オブジェクトの3Dポーズと形状を再構築する必要がある問題を考える。
最初の貢献は PACE3D* と PACE2D* を開発することである。
2つ目のコントリビューションは、PACE3D#とPACE2D#という名前の、両方のソルバの開発バージョンです。
論文 参考訳(メタデータ) (2022-06-24T21:58:00Z) - BundleTrack: 6D Pose Tracking for Novel Objects without Instance or
Category-Level 3D Models [1.14219428942199]
この研究は、オブジェクトの6Dポーズトラッキングのための一般的なフレームワークである BundleTrackを提案する。
フレームワークの効率的な実装は、フレームワーク全体に対してリアルタイムな10Hzのパフォーマンスを提供する。
論文 参考訳(メタデータ) (2021-08-01T18:14:46Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。