論文の概要: CPPF: Towards Robust Category-Level 9D Pose Estimation in the Wild
- arxiv url: http://arxiv.org/abs/2203.03089v1
- Date: Mon, 7 Mar 2022 01:36:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 17:42:46.643065
- Title: CPPF: Towards Robust Category-Level 9D Pose Estimation in the Wild
- Title(参考訳): CPPF:野生におけるロバストなカテゴリーレベル9Dポス推定に向けて
- Authors: Yang You, Ruoxi Shi, Weiming Wang, Cewu Lu
- Abstract要約: カテゴリーレベルのPPF投票法は、野生における正確で堅牢で一般化可能な9Dポーズ推定を実現する。
ノイズの多い点対のサンプルを排除し、個体群から最終的な予測を生成するために、新しい粗大な投票アルゴリズムを提案する。
我々の手法は実世界のトレーニングデータと同等である。
- 参考スコア(独自算出の注目度): 45.93626858034774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we tackle the problem of category-level 9D pose estimation in
the wild, given a single RGB-D frame. Using supervised data of real-world 9D
poses is tedious and erroneous, and also fails to generalize to unseen
scenarios. Besides, category-level pose estimation requires a method to be able
to generalize to unseen objects at test time, which is also challenging.
Drawing inspirations from traditional point pair features (PPFs), in this
paper, we design a novel Category-level PPF (CPPF) voting method to achieve
accurate, robust and generalizable 9D pose estimation in the wild. To obtain
robust pose estimation, we sample numerous point pairs on an object, and for
each pair our model predicts necessary SE(3)-invariant voting statistics on
object centers, orientations and scales. A novel coarse-to-fine voting
algorithm is proposed to eliminate noisy point pair samples and generate final
predictions from the population. To get rid of false positives in the
orientation voting process, an auxiliary binary disambiguating classification
task is introduced for each sampled point pair. In order to detect objects in
the wild, we carefully design our sim-to-real pipeline by training on synthetic
point clouds only, unless objects have ambiguous poses in geometry. Under this
circumstance, color information is leveraged to disambiguate these poses.
Results on standard benchmarks show that our method is on par with current
state of the arts with real-world training data. Extensive experiments further
show that our method is robust to noise and gives promising results under
extremely challenging scenarios. Our code is available on
https://github.com/qq456cvb/CPPF.
- Abstract(参考訳): 本稿では,1つのRGB-Dフレームを考慮し,カテゴリーレベルの9Dポーズ推定の問題に取り組む。
実世界の9dポーズの教師付きデータの使用は、退屈で誤ったものであり、目に見えないシナリオに一般化することができない。
さらに、カテゴリレベルのポーズ推定には、テスト時に見えないオブジェクトに一般化できるメソッドが必要であるが、これも難しい。
本稿では,従来の点対特徴(ppfs)から着想を得た新しいカテゴリーレベルのppf(cppf)投票法を考案し,実環境において高精度でロバストで一般化可能な9次元ポーズ推定を実現する。
頑健なポーズ推定を得るためには,オブジェクト上に多数の点対をサンプリングし,各ペアに対して,オブジェクト中心,向き,スケールに関するSE(3)不変投票統計量を予測する。
ノイズの多い点対サンプルを除去し, 個体群から最終予測を生成するため, 新たな粗粒間投票アルゴリズムを提案する。
配向投票プロセスにおいて偽陽性を除去するために、各サンプル点対に対して補助的二項曖昧化分類タスクを導入する。
野生の物体を検出するため、オブジェクトが幾何にあいまいなポーズをとらない限り、合成ポイントクラウドのみをトレーニングすることで、sim-to-realパイプラインを慎重に設計します。
この状況下では、色情報はこれらのポーズを曖昧にするために利用される。
標準ベンチマークの結果,本手法は実世界のトレーニングデータと同等であることが判明した。
さらに広範な実験により,提案手法は雑音に対して頑健であり,極めて困難なシナリオにおいて有望な結果が得られることを示した。
私たちのコードはhttps://github.com/qq456cvb/CPPFで利用可能です。
関連論文リスト
- DVMNet: Computing Relative Pose for Unseen Objects Beyond Hypotheses [59.51874686414509]
現在のアプローチは、多数の離散的なポーズ仮説を持つ連続的なポーズ表現を近似している。
本稿では,DVMNet(Deep Voxel Matching Network)を提案する。
提案手法は,最先端の手法に比べて計算コストの低い新しいオブジェクトに対して,より正確なポーズ推定を行う。
論文 参考訳(メタデータ) (2024-03-20T15:41:32Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - CPPF++: Uncertainty-Aware Sim2Real Object Pose Estimation by Vote Aggregation [67.12857074801731]
そこで本研究では,シミュレートからリアルなポーズ推定のための新しい手法であるCPPF++を提案する。
投票衝突による課題に対処するため,投票の不確実性をモデル化する新たなアプローチを提案する。
ノイズの多いペアフィルタリング、オンラインアライメント最適化、機能アンサンブルなど、いくつかの革新的なモジュールを組み込んでいます。
論文 参考訳(メタデータ) (2022-11-24T03:27:00Z) - Category-Level 6D Object Pose Estimation in the Wild: A Semi-Supervised
Learning Approach and A New Dataset [12.40437099476348]
カテゴリーレベルの6次元オブジェクトのポーズ推定を半教師付き学習で一般化する。
提案手法は, 合成データと自由接地構造を用いて協調的に学習するRendering for Pose Estimation Network RePoNetという新しいモデルを提案する。
提案手法は,前回のデータセットとWild6Dテストセット(評価用手動アノテーション付き)の最先端の手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-06-30T17:30:57Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Zero-Shot Category-Level Object Pose Estimation [24.822189326540105]
ゼロショット方式で新しい対象カテゴリーのポーズを推定する問題に取り組む。
これは、ポーズラベル付きデータセットやカテゴリ固有のCADモデルの必要性を取り除くことで、既存の文献の多くを拡張します。
本手法は平均回転精度を30度で6倍改善する。
論文 参考訳(メタデータ) (2022-04-07T17:58:39Z) - ZebraPose: Coarse to Fine Surface Encoding for 6DoF Object Pose
Estimation [76.31125154523056]
物体表面を高密度に表現できる離散ディスクリプタを提案する。
また,微粒化対応予測が可能な微粒化学習戦略を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。