論文の概要: NormNet: Scale Normalization for 6D Pose Estimation in Stacked Scenarios
- arxiv url: http://arxiv.org/abs/2311.09269v1
- Date: Wed, 15 Nov 2023 12:02:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 18:05:00.374867
- Title: NormNet: Scale Normalization for 6D Pose Estimation in Stacked Scenarios
- Title(参考訳): NormNet:スタックシナリオにおける6次元空間推定のためのスケール正規化
- Authors: En-Te Lin, Wei-Jie Lv, Ding-Tao Huang and Long Zeng
- Abstract要約: 本稿では,スタック化シナリオにおける異なるスケールオブジェクトのための新しい6DoF OPEネットワーク(NormNet)を提案する。
スタック化されたシナリオのすべてのオブジェクトは、セマンティックセグメンテーションとアフィン変換によって同じスケールに正規化されます。
最後に、6Dのポーズを復元するために、共有ポーズ推定器に入力される。
- 参考スコア(独自算出の注目度): 4.515332570030772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing Object Pose Estimation (OPE) methods for stacked scenarios are not
robust to changes in object scale. This paper proposes a new 6DoF OPE network
(NormNet) for different scale objects in stacked scenarios. Specifically, each
object's scale is first learned with point-wise regression. Then, all objects
in the stacked scenario are normalized into the same scale through semantic
segmentation and affine transformation. Finally, they are fed into a shared
pose estimator to recover their 6D poses. In addition, we introduce a new
Sim-to-Real transfer pipeline, combining style transfer and domain
randomization. This improves the NormNet's performance on real data even if we
only train it on synthetic data. Extensive experiments demonstrate that the
proposed method achieves state-of-the-art performance on public benchmarks and
the MultiScale dataset we constructed. The real-world experiments show that our
method can robustly estimate the 6D pose of objects at different scales.
- Abstract(参考訳): 既存のオブジェクトポース推定(OPE)メソッドは、オブジェクトスケールの変化に対して堅牢ではない。
本稿では,スタック化シナリオにおける異なるスケールオブジェクトのための新しい6DoF OPEネットワーク(NormNet)を提案する。
具体的には、各オブジェクトのスケールは最初にポイントワイズレグレッションで学習される。
次に、スタック化されたシナリオ内の全てのオブジェクトは、セマンティックセグメンテーションとアフィン変換によって同じスケールに正規化されます。
最後に、彼らは6dポーズを回復するために共有ポーズ推定器に送られます。
さらに,スタイル転送とドメインランダム化を組み合わせた新しいsim-to-real転送パイプラインを導入する。
これにより、合成データだけをトレーニングしても、実データでのノームネットのパフォーマンスが向上します。
広範な実験により,提案手法が公開ベンチマークと構築したマルチスケールデータセットにおいて最先端のパフォーマンスを実現することを実証した。
実世界実験では,異なるスケールの物体の6次元姿勢をロバストに推定できることを示した。
関連論文リスト
- FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation [69.70498875887611]
LocPoseNetは、見えないオブジェクトに先立って、ロバストにロケーションを学習することができる。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-29T15:21:34Z) - Category-Level 6D Object Pose Estimation in the Wild: A Semi-Supervised
Learning Approach and A New Dataset [12.40437099476348]
カテゴリーレベルの6次元オブジェクトのポーズ推定を半教師付き学習で一般化する。
提案手法は, 合成データと自由接地構造を用いて協調的に学習するRendering for Pose Estimation Network RePoNetという新しいモデルを提案する。
提案手法は,前回のデータセットとWild6Dテストセット(評価用手動アノテーション付き)の最先端の手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-06-30T17:30:57Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - OVE6D: Object Viewpoint Encoding for Depth-based 6D Object Pose
Estimation [12.773040823634908]
単一深度画像と対象物マスクからモデルに基づく6次元オブジェクトのポーズ推定を行うために,OVE6Dと呼ばれる普遍的なフレームワークを提案する。
われわれのモデルはShapeNetから生成された純粋に合成されたデータを用いて訓練されており、既存のほとんどの方法とは異なり、微調整なしで新しい現実世界のオブジェクトをうまく一般化する。
OVE6Dは、現実世界のトレーニングデータを用いて、個々のオブジェクトやデータセットに特化して訓練された、現代の深層学習に基づくポーズ推定手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-02T12:51:33Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z) - Single Shot 6D Object Pose Estimation [11.37625512264302]
深度画像に基づく剛体物体の6次元オブジェクトポーズ推定のための新しい単一ショット手法を提案する。
完全な畳み込みニューラルネットワークを用い、3次元入力データを空間的に離散化し、ポーズ推定を回帰タスクとみなす。
GPU上の65fpsでは、Object Pose Network(OP-Net)は非常に高速で、エンドツーエンドに最適化され、画像内の複数のオブジェクトの6Dポーズを同時に推定する。
論文 参考訳(メタデータ) (2020-04-27T11:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。