論文の概要: Go Beyond Point Pairs: A General and Accurate Sim2Real Object Pose
Voting Method with Efficient Online Synthetic Training
- arxiv url: http://arxiv.org/abs/2211.13398v1
- Date: Thu, 24 Nov 2022 03:27:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 15:14:29.305943
- Title: Go Beyond Point Pairs: A General and Accurate Sim2Real Object Pose
Voting Method with Efficient Online Synthetic Training
- Title(参考訳): Go Beyond Point Pairs: オンライン合成訓練を効率的に行う汎用的かつ高精度なSim2Real Object Pose Voting法
- Authors: Yang You, Wenhao He, Michael Xu Liu, Weiming Wang, Cewu Lu
- Abstract要約: 本稿では,インスタンスレベルの設定とカテゴリレベルの設定の両方に有効であるsim-to-realのポーズ推定手法を提案する。
本手法は,オンライン学習データを効率よく生成することにより,シミュレートとリアルトレーニングのギャップをさらに狭める。
- 参考スコア(独自算出の注目度): 42.8896617179353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object pose estimation is an important topic in 3D vision. Though most
current state-of-the-art method that trains on real-world pose annotations
achieve good results, the cost of such real-world training data is too high. In
this paper, we propose a novel method for sim-to-real pose estimation, which is
effective on both instance-level and category-level settings. The proposed
method is based on the point-pair voting scheme from CPPF to vote for object
centers, orientations, and scales. Unlike naive point pairs, to enrich the
context provided by each voting unit, we introduce N-point tuples to fuse
features from more than two points. Besides, a novel vote selection module is
leveraged in order to discard those `bad' votes. Experiments show that our
proposed method greatly advances the performance on both instance-level and
category-level scenarios. Our method further narrows the gap between
sim-to-real and real-training methods by generating synthetic training data
online efficiently, while all previous sim-to-real methods need to generate
data offline, because of their complex background synthesizing or
photo-realistic rendering. Code repository:
https://github.com/qq456cvb/BeyondPPF.
- Abstract(参考訳): 物体の位置推定は3dビジョンの重要なトピックである。
実世界のポーズアノテーションをトレーニングする最新の手法のほとんどは良い結果を得るが、実世界のトレーニングデータのコストは高すぎる。
本稿では,インスタンスレベルの設定とカテゴリレベルの設定の両方に有効であるsim-to-realのポーズ推定手法を提案する。
提案手法は, CPPF の点対投票方式を用いて, 対象中心, 向き, スケールの投票を行う。
素点対とは異なり、各投票単位が提供する文脈を豊かにするために、N点タプルを導入し、2点以上の特徴を融合する。
さらに、'悪い'投票を破棄するために、新しい投票選択モジュールが利用されます。
実験により,提案手法はインスタンスレベルのシナリオとカテゴリレベルのシナリオの両方で性能が大幅に向上することを示した。
従来のSIM-to-real 手法では,複雑な背景合成やフォトリアリスティックレンダリングのため,オフラインでデータを生成する必要があるが,本手法はより効率的に合成トレーニングデータを生成することによって,sim-to-real と Real-training のギャップを狭める。
コードリポジトリ:https://github.com/qq456cvb/BeyondPPF。
関連論文リスト
- DiffusionNOCS: Managing Symmetry and Uncertainty in Sim2Real Multi-Modal
Category-level Pose Estimation [20.676510832922016]
本研究では,部分物体形状の復元に不可欠な高密度正準写像を推定するために拡散に依存する確率モデルを提案する。
マルチモーダル入力表現を用いた拡散モデルの強度を活用することにより,性能向上のための重要なコンポーネントを導入する。
提案手法は, 生成した合成データのみに基づいて訓練されているにもかかわらず, 最先端の性能と前例のない一般化特性を達成している。
論文 参考訳(メタデータ) (2024-02-20T01:48:33Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - KVN: Keypoints Voting Network with Differentiable RANSAC for Stereo Pose
Estimation [1.1603243575080535]
我々は、よく知られた単分子ポーズ推定ネットワークに微分可能なRANSAC層を導入する。
本稿では, RANSACが提案した層の精度に果たす役割について述べる。
論文 参考訳(メタデータ) (2023-07-21T12:43:07Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - CPPF: Towards Robust Category-Level 9D Pose Estimation in the Wild [45.93626858034774]
カテゴリーレベルのPPF投票法は、野生における正確で堅牢で一般化可能な9Dポーズ推定を実現する。
ノイズの多い点対のサンプルを排除し、個体群から最終的な予測を生成するために、新しい粗大な投票アルゴリズムを提案する。
我々の手法は実世界のトレーニングデータと同等である。
論文 参考訳(メタデータ) (2022-03-07T01:36:22Z) - Sim2Real Object-Centric Keypoint Detection and Description [40.58367357980036]
キーポイントの検出と記述はコンピュータビジョンにおいて中心的な役割を果たす。
対象中心の定式化を提案し、各関心点が属する対象をさらに特定する必要がある。
我々はシミュレーションで訓練されたモデルを現実のアプリケーションに一般化できるsim2realコントラスト学習機構を開発した。
論文 参考訳(メタデータ) (2022-02-01T15:00:20Z) - Dynamic Iterative Refinement for Efficient 3D Hand Pose Estimation [87.54604263202941]
本稿では,従来の推定値の修正に部分的レイヤを反復的に活用する,小さなディープニューラルネットワークを提案する。
学習したゲーティング基準を用いて、ウェイトシェアリングループから抜け出すかどうかを判断し、モデルにサンプルごとの適応を可能にする。
提案手法は,広く使用されているベンチマークの精度と効率の両面から,最先端の2D/3Dハンドポーズ推定手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-11T23:31:34Z) - Robust Ego and Object 6-DoF Motion Estimation and Tracking [5.162070820801102]
本稿では,動的多体視覚計測における高精度な推定と一貫した追跡性を実現するためのロバストな解を提案する。
セマンティック・インスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して、コンパクトで効果的なフレームワークを提案する。
追従点の品質と運動推定精度を向上させる新しい定式化SE(3)運動と光流が導入された。
論文 参考訳(メタデータ) (2020-07-28T05:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。