論文の概要: Go Beyond Point Pairs: A General and Accurate Sim2Real Object Pose
Voting Method with Efficient Online Synthetic Training
- arxiv url: http://arxiv.org/abs/2211.13398v1
- Date: Thu, 24 Nov 2022 03:27:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 15:14:29.305943
- Title: Go Beyond Point Pairs: A General and Accurate Sim2Real Object Pose
Voting Method with Efficient Online Synthetic Training
- Title(参考訳): Go Beyond Point Pairs: オンライン合成訓練を効率的に行う汎用的かつ高精度なSim2Real Object Pose Voting法
- Authors: Yang You, Wenhao He, Michael Xu Liu, Weiming Wang, Cewu Lu
- Abstract要約: 本稿では,インスタンスレベルの設定とカテゴリレベルの設定の両方に有効であるsim-to-realのポーズ推定手法を提案する。
本手法は,オンライン学習データを効率よく生成することにより,シミュレートとリアルトレーニングのギャップをさらに狭める。
- 参考スコア(独自算出の注目度): 42.8896617179353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object pose estimation is an important topic in 3D vision. Though most
current state-of-the-art method that trains on real-world pose annotations
achieve good results, the cost of such real-world training data is too high. In
this paper, we propose a novel method for sim-to-real pose estimation, which is
effective on both instance-level and category-level settings. The proposed
method is based on the point-pair voting scheme from CPPF to vote for object
centers, orientations, and scales. Unlike naive point pairs, to enrich the
context provided by each voting unit, we introduce N-point tuples to fuse
features from more than two points. Besides, a novel vote selection module is
leveraged in order to discard those `bad' votes. Experiments show that our
proposed method greatly advances the performance on both instance-level and
category-level scenarios. Our method further narrows the gap between
sim-to-real and real-training methods by generating synthetic training data
online efficiently, while all previous sim-to-real methods need to generate
data offline, because of their complex background synthesizing or
photo-realistic rendering. Code repository:
https://github.com/qq456cvb/BeyondPPF.
- Abstract(参考訳): 物体の位置推定は3dビジョンの重要なトピックである。
実世界のポーズアノテーションをトレーニングする最新の手法のほとんどは良い結果を得るが、実世界のトレーニングデータのコストは高すぎる。
本稿では,インスタンスレベルの設定とカテゴリレベルの設定の両方に有効であるsim-to-realのポーズ推定手法を提案する。
提案手法は, CPPF の点対投票方式を用いて, 対象中心, 向き, スケールの投票を行う。
素点対とは異なり、各投票単位が提供する文脈を豊かにするために、N点タプルを導入し、2点以上の特徴を融合する。
さらに、'悪い'投票を破棄するために、新しい投票選択モジュールが利用されます。
実験により,提案手法はインスタンスレベルのシナリオとカテゴリレベルのシナリオの両方で性能が大幅に向上することを示した。
従来のSIM-to-real 手法では,複雑な背景合成やフォトリアリスティックレンダリングのため,オフラインでデータを生成する必要があるが,本手法はより効率的に合成トレーニングデータを生成することによって,sim-to-real と Real-training のギャップを狭める。
コードリポジトリ:https://github.com/qq456cvb/BeyondPPF。
関連論文リスト
- UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Visibility-Aware Keypoint Localization for 6DoF Object Pose Estimation [56.07676459156789]
2次元画像における3Dキーポイントの局所化は、6DoFオブジェクトのポーズ推定のための3D-2D対応を確立する効果的な方法である。
本稿では、重要なキーポイントを可視性の観点からローカライズすることでこの問題に対処する。
我々は、可視性を考慮した重要度と最先端のポーズ推定アルゴリズムを統合することにより、VAPO(Visibility-Aware POse estimator)を構築する。
論文 参考訳(メタデータ) (2024-03-21T16:59:45Z) - Source-Free and Image-Only Unsupervised Domain Adaptation for Category
Level Object Pose Estimation [18.011044932979143]
3DUDAは、3Dや深度データを使わずに、ニュアンスドライデンのターゲットドメインに適応できる手法である。
対象のカテゴリを単純な立方体メッシュとして表現し、ニューラル特徴活性化の生成モデルを利用する。
本手法は,グローバルな擬似ラベル付きデータセットの微調整を軽度な仮定でシミュレートする。
論文 参考訳(メタデータ) (2024-01-19T17:48:05Z) - FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - CPPF: Towards Robust Category-Level 9D Pose Estimation in the Wild [45.93626858034774]
カテゴリーレベルのPPF投票法は、野生における正確で堅牢で一般化可能な9Dポーズ推定を実現する。
ノイズの多い点対のサンプルを排除し、個体群から最終的な予測を生成するために、新しい粗大な投票アルゴリズムを提案する。
我々の手法は実世界のトレーニングデータと同等である。
論文 参考訳(メタデータ) (2022-03-07T01:36:22Z) - Sim2Real Object-Centric Keypoint Detection and Description [40.58367357980036]
キーポイントの検出と記述はコンピュータビジョンにおいて中心的な役割を果たす。
対象中心の定式化を提案し、各関心点が属する対象をさらに特定する必要がある。
我々はシミュレーションで訓練されたモデルを現実のアプリケーションに一般化できるsim2realコントラスト学習機構を開発した。
論文 参考訳(メタデータ) (2022-02-01T15:00:20Z) - Robust Ego and Object 6-DoF Motion Estimation and Tracking [5.162070820801102]
本稿では,動的多体視覚計測における高精度な推定と一貫した追跡性を実現するためのロバストな解を提案する。
セマンティック・インスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して、コンパクトで効果的なフレームワークを提案する。
追従点の品質と運動推定精度を向上させる新しい定式化SE(3)運動と光流が導入された。
論文 参考訳(メタデータ) (2020-07-28T05:12:56Z) - Inference Stage Optimization for Cross-scenario 3D Human Pose Estimation [97.93687743378106]
既存の3Dポーズ推定モデルは、目に見えないポーズを持つ新しいシナリオに適用する場合、パフォーマンス低下を被る。
本稿では、3次元ポーズモデルの一般化性を改善するための新しいフレームワークである推論段階最適化(ISO)を提案する。
注目すべきは、MPI-INF-3DHPで83.6%の最先端の3D PCKが得られることだ。
論文 参考訳(メタデータ) (2020-07-04T09:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。