論文の概要: CPPF++: Uncertainty-Aware Sim2Real Object Pose Estimation by Vote
Aggregation
- arxiv url: http://arxiv.org/abs/2211.13398v2
- Date: Wed, 6 Sep 2023 16:47:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 19:56:48.373268
- Title: CPPF++: Uncertainty-Aware Sim2Real Object Pose Estimation by Vote
Aggregation
- Title(参考訳): CPPF++: 投票集約による不確かさを意識したSim2Real Object Poseの推定
- Authors: Yang You, Wenhao He, Jin Liu, Hongkai Xiong, Weiming Wang, Cewu Lu
- Abstract要約: CPPF++は、sim-to-realのポーズ推定のために設計されている。
カテゴリレベルのポーズ推定データセットであるDiversePose 300を提案する。
- 参考スコア(独自算出の注目度): 71.13049562721085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object pose estimation constitutes a critical area within the domain of 3D
vision. While contemporary state-of-the-art methods that leverage real-world
pose annotations have demonstrated commendable performance, the procurement of
such real-world training data incurs substantial costs. This paper focuses on a
specific setting wherein only 3D CAD models are utilized as a priori knowledge,
devoid of any background or clutter information. We introduce a novel method,
CPPF++, designed for sim-to-real pose estimation. This method builds upon the
foundational point-pair voting scheme of CPPF, reconceptualizing it through a
probabilistic lens. To address the challenge of voting collision, we model
voting uncertainty by estimating the probabilistic distribution of each point
pair within the canonical space. This approach is further augmented by
iterative noise filtering, employed to eradicate votes associated with
backgrounds or clutters. Additionally, we enhance the context provided by each
voting unit by introducing $N$-point tuples. In conjunction with this
methodological contribution, we present a new category-level pose estimation
dataset, DiversePose 300. This dataset is specifically crafted to facilitate a
more rigorous evaluation of current state-of-the-art methods, encompassing a
broader and more challenging array of real-world scenarios. Empirical results
substantiate the efficacy of our proposed method, revealing a significant
reduction in the disparity between simulation and real-world performance.
- Abstract(参考訳): オブジェクトのポーズ推定は、3次元視覚領域内の重要な領域を構成する。
実世界のポーズアノテーションを利用する現代的最先端の手法は、賞賛できる性能を示しているが、そのような実世界のトレーニングデータの調達は相当なコストをもたらす。
本稿では,3次元CADモデルのみを事前知識として利用し,背景情報や乱雑な情報を含まない,特定の環境に着目する。
我々は,シミュレートからリアルなポーズ推定のための新しいCPPF++を提案する。
この方法はCPPFの基本点対投票方式に基づいており、確率レンズで再認識する。
本研究では,各点対の確率分布を正準空間内で推定することにより,投票の不確実性をモデル化する。
このアプローチは、バックグラウンドやクラッターに関連する投票を根絶するために使用される反復的ノイズフィルタリングによってさらに強化される。
さらに、n$-pointタプルを導入することで、各投票ユニットが提供するコンテキストを強化する。
提案手法と合わせて,新たなカテゴリレベルのポーズ推定データセットであるDiversePose 300を提案する。
このデータセットは、現在の最先端のメソッドをより厳格に評価し、より広く、より困難な現実のシナリオを包含するように設計されている。
実験の結果,提案手法の有効性を実証し,シミュレーションと実世界の性能の相違を著しく低減した。
関連論文リスト
- DiffusionNOCS: Managing Symmetry and Uncertainty in Sim2Real Multi-Modal
Category-level Pose Estimation [20.676510832922016]
本研究では,部分物体形状の復元に不可欠な高密度正準写像を推定するために拡散に依存する確率モデルを提案する。
マルチモーダル入力表現を用いた拡散モデルの強度を活用することにより,性能向上のための重要なコンポーネントを導入する。
提案手法は, 生成した合成データのみに基づいて訓練されているにもかかわらず, 最先端の性能と前例のない一般化特性を達成している。
論文 参考訳(メタデータ) (2024-02-20T01:48:33Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - KVN: Keypoints Voting Network with Differentiable RANSAC for Stereo Pose
Estimation [1.1603243575080535]
我々は、よく知られた単分子ポーズ推定ネットワークに微分可能なRANSAC層を導入する。
本稿では, RANSACが提案した層の精度に果たす役割について述べる。
論文 参考訳(メタデータ) (2023-07-21T12:43:07Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - CPPF: Towards Robust Category-Level 9D Pose Estimation in the Wild [45.93626858034774]
カテゴリーレベルのPPF投票法は、野生における正確で堅牢で一般化可能な9Dポーズ推定を実現する。
ノイズの多い点対のサンプルを排除し、個体群から最終的な予測を生成するために、新しい粗大な投票アルゴリズムを提案する。
我々の手法は実世界のトレーニングデータと同等である。
論文 参考訳(メタデータ) (2022-03-07T01:36:22Z) - Sim2Real Object-Centric Keypoint Detection and Description [40.58367357980036]
キーポイントの検出と記述はコンピュータビジョンにおいて中心的な役割を果たす。
対象中心の定式化を提案し、各関心点が属する対象をさらに特定する必要がある。
我々はシミュレーションで訓練されたモデルを現実のアプリケーションに一般化できるsim2realコントラスト学習機構を開発した。
論文 参考訳(メタデータ) (2022-02-01T15:00:20Z) - Dynamic Iterative Refinement for Efficient 3D Hand Pose Estimation [87.54604263202941]
本稿では,従来の推定値の修正に部分的レイヤを反復的に活用する,小さなディープニューラルネットワークを提案する。
学習したゲーティング基準を用いて、ウェイトシェアリングループから抜け出すかどうかを判断し、モデルにサンプルごとの適応を可能にする。
提案手法は,広く使用されているベンチマークの精度と効率の両面から,最先端の2D/3Dハンドポーズ推定手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-11T23:31:34Z) - Robust Ego and Object 6-DoF Motion Estimation and Tracking [5.162070820801102]
本稿では,動的多体視覚計測における高精度な推定と一貫した追跡性を実現するためのロバストな解を提案する。
セマンティック・インスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して、コンパクトで効果的なフレームワークを提案する。
追従点の品質と運動推定精度を向上させる新しい定式化SE(3)運動と光流が導入された。
論文 参考訳(メタデータ) (2020-07-28T05:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。