論文の概要: Zero-Shot Category-Level Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2204.03635v1
- Date: Thu, 7 Apr 2022 17:58:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 16:33:06.906983
- Title: Zero-Shot Category-Level Object Pose Estimation
- Title(参考訳): Zero-Shot Category-Level Object Poseの推定
- Authors: Walter Goodwin, Sagar Vaze, Ioannis Havoutis, Ingmar Posner
- Abstract要約: ゼロショット方式で新しい対象カテゴリーのポーズを推定する問題に取り組む。
これは、ポーズラベル付きデータセットやカテゴリ固有のCADモデルの必要性を取り除くことで、既存の文献の多くを拡張します。
本手法は平均回転精度を30度で6倍改善する。
- 参考スコア(独自算出の注目度): 24.822189326540105
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Object pose estimation is an important component of most vision pipelines for
embodied agents, as well as in 3D vision more generally. In this paper we
tackle the problem of estimating the pose of novel object categories in a
zero-shot manner. This extends much of the existing literature by removing the
need for pose-labelled datasets or category-specific CAD models for training or
inference. Specifically, we make the following contributions. First, we
formalise the zero-shot, category-level pose estimation problem and frame it in
a way that is most applicable to real-world embodied agents. Secondly, we
propose a novel method based on semantic correspondences from a self-supervised
vision transformer to solve the pose estimation problem. We further re-purpose
the recent CO3D dataset to present a controlled and realistic test setting.
Finally, we demonstrate that all baselines for our proposed task perform
poorly, and show that our method provides a six-fold improvement in average
rotation accuracy at 30 degrees. Our code is available at
https://github.com/applied-ai-lab/zero-shot-pose.
- Abstract(参考訳): オブジェクトのポーズ推定は、多くの視覚パイプラインの重要な要素であり、より一般的には3Dビジョンである。
本稿では,ゼロショット方式で新規な対象カテゴリの配置を推定する問題に取り組む。
これは、ポーズラベル付きデータセットや、トレーニングや推論のためのカテゴリ固有のCADモデルの必要性を取り除くことで、既存の文献の多くを拡張する。
具体的には、以下の貢献をする。
まず,ゼロショット,カテゴリレベルのポーズ推定問題を定式化し,実世界の具体化エージェントに最も適用可能な方法でフレーム化する。
次に,ポーズ推定問題を解くために,自己教師付き視覚トランスフォーマからの意味対応に基づく新しい手法を提案する。
さらに,最近のco3dデータセットを再利用して,制御可能かつ現実的なテスト設定を示す。
最後に,提案手法では平均回転精度が30度で6倍向上することを示す。
私たちのコードはhttps://github.com/applied-ai-lab/zero-shot-poseで利用可能です。
関連論文リスト
- MFOS: Model-Free & One-Shot Object Pose Estimation [10.009454818723025]
最小限の入力が与えられた場合、トレーニング中に見たことのないオブジェクトのポーズを1つのフォワードで推定できる新しいアプローチを導入する。
我々は、LINEMODベンチマークで広範な実験を行い、最先端のワンショット性能を報告した。
論文 参考訳(メタデータ) (2023-10-03T09:12:07Z) - ShapeShift: Superquadric-based Object Pose Estimation for Robotic
Grasping [85.38689479346276]
現在の技術は参照3Dオブジェクトに大きく依存しており、その一般化性を制限し、新しいオブジェクトカテゴリに拡張するのにコストがかかる。
本稿では,オブジェクトに適合するプリミティブな形状に対してオブジェクトのポーズを予測する,オブジェクトのポーズ推定のためのスーパークワッドリックベースのフレームワークであるShapeShiftを提案する。
論文 参考訳(メタデータ) (2023-04-10T20:55:41Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - NOPE: Novel Object Pose Estimation from a Single Image [67.11073133072527]
本稿では,新しいオブジェクトの1つのイメージを入力として取り込んで,オブジェクトの3Dモデルに関する事前知識を必要とせずに,新しいイメージにおけるオブジェクトの相対的なポーズを予測するアプローチを提案する。
我々は、オブジェクトを取り巻く視点に対する識別的埋め込みを直接予測するモデルを訓練することで、これを実現する。
この予測は単純なU-Netアーキテクチャを用いて行われ、要求されたポーズに注意を向け、条件を定め、非常に高速な推論をもたらす。
論文 参考訳(メタデータ) (2023-03-23T18:55:43Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - CPPF++: Uncertainty-Aware Sim2Real Object Pose Estimation by Vote Aggregation [67.12857074801731]
そこで本研究では,シミュレートからリアルなポーズ推定のための新しい手法であるCPPF++を提案する。
投票衝突による課題に対処するため,投票の不確実性をモデル化する新たなアプローチを提案する。
ノイズの多いペアフィルタリング、オンラインアライメント最適化、機能アンサンブルなど、いくつかの革新的なモジュールを組み込んでいます。
論文 参考訳(メタデータ) (2022-11-24T03:27:00Z) - Pose for Everything: Towards Category-Agnostic Pose Estimation [93.07415325374761]
Category-Agnostic Pose Estimation (CAPE) は、キーポイント定義を持つ少数のサンプルのみを与えられた任意の種類のオブジェクトのポーズを検出することができるポーズ推定モデルを作成することを目的としている。
異なるキーポイント間のインタラクションと、サポートとクエリイメージの関係をキャプチャするために、トランスフォーマーベースのキーポイントインタラクションモジュール(KIM)を提案する。
また、20K以上のインスタンスを含む100のオブジェクトカテゴリの2次元ポーズデータセットであるMP-100データセットを導入し、CAPEアルゴリズムの開発に適している。
論文 参考訳(メタデータ) (2022-07-21T09:40:54Z) - CPPF: Towards Robust Category-Level 9D Pose Estimation in the Wild [45.93626858034774]
カテゴリーレベルのPPF投票法は、野生における正確で堅牢で一般化可能な9Dポーズ推定を実現する。
ノイズの多い点対のサンプルを排除し、個体群から最終的な予測を生成するために、新しい粗大な投票アルゴリズムを提案する。
我々の手法は実世界のトレーニングデータと同等である。
論文 参考訳(メタデータ) (2022-03-07T01:36:22Z) - Object Pose Estimation using Mid-level Visual Representations [5.220940151628735]
本研究は,これまで見つからなかった環境に効果的に移動可能なオブジェクトカテゴリのポーズ推定モデルを提案する。
ポーズ推定のための深層畳み込みネットワークモデル(CNN)は、通常、オブジェクト検出、ポーズ推定、または3D再構成のために算出されたデータセットに基づいて訓練され評価される。
一般化と新しい環境への移動に関しては,この手法が好ましいことを示す。
論文 参考訳(メタデータ) (2022-03-02T22:49:17Z) - Leveraging SE(3) Equivariance for Self-Supervised Category-Level Object
Pose Estimation [30.04752448942084]
カテゴリーレベルのオブジェクトポーズ推定は、オブジェクトCADモデルにアクセスすることなく、既知のカテゴリから未確認のオブジェクトインスタンスの6Dオブジェクトポーズを見つけることを目的としている。
本研究では,1つの3次元点群からカテゴリレベルの6次元オブジェクトのポーズを推定する自己教師型学習フレームワークを初めて提案する。
論文 参考訳(メタデータ) (2021-10-30T06:46:44Z) - ZePHyR: Zero-shot Pose Hypothesis Rating [36.52070583343388]
本稿では,ゼロショット物体の姿勢推定法を提案する。
提案手法は仮説生成とスコアリングのフレームワークを用いて,トレーニングに使用されていないオブジェクトに一般化するスコアリング関数の学習に重点を置いている。
そこで本研究では,新しい物体のモデルを素早くスキャンして構築することで,本システムをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2021-04-28T01:48:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。