論文の概要: Geo6D: Geometric Constraints Learning for 6D Pose Estimation
- arxiv url: http://arxiv.org/abs/2210.10959v6
- Date: Tue, 22 Aug 2023 01:31:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 21:33:27.439500
- Title: Geo6D: Geometric Constraints Learning for 6D Pose Estimation
- Title(参考訳): Geo6D:6次元空間推定のための幾何学的制約学習
- Authors: Jianqiu Chen, Mingshan Sun, Ye Zheng, Tianpeng Bao, Zhenyu He, Donghai
Li, Guoqiang Jin, Rui Zhao, Liwei Wu, Xiaoke Jiang
- Abstract要約: 直接回帰6Dポーズ推定のためのGeo6Dと呼ばれる新しい幾何学的制約学習手法を提案する。
また,Geo6Dを装着すると,複数のデータセット上で直接6D手法が最先端の性能を達成することを示す。
- 参考スコア(独自算出の注目度): 21.080439293774464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous 6D pose estimation methods have been proposed that employ end-to-end
regression to directly estimate the target pose parameters. Since the visible
features of objects are implicitly influenced by their poses, the network
allows inferring the pose by analyzing the differences in features in the
visible region. However, due to the unpredictable and unrestricted range of
pose variations, the implicitly learned visible feature-pose constraints are
insufficiently covered by the training samples, making the network vulnerable
to unseen object poses. To tackle these challenges, we proposed a novel
geometric constraints learning approach called Geo6D for direct regression 6D
pose estimation methods. It introduces a pose transformation formula expressed
in relative offset representation, which is leveraged as geometric constraints
to reconstruct the input and output targets of the network. These reconstructed
data enable the network to estimate the pose based on explicit geometric
constraints and relative offset representation mitigates the issue of the pose
distribution gap. Extensive experimental results show that when equipped with
Geo6D, the direct 6D methods achieve state-of-the-art performance on multiple
datasets and demonstrate significant effectiveness, even with only 10% amount
of data.
- Abstract(参考訳): 目的のポーズパラメータを直接推定するために、エンドツーエンドの回帰を用いた多数の6次元ポーズ推定法が提案されている。
オブジェクトの可視的特徴はポーズに暗黙的に影響されるため、ネットワークは可視領域の特徴の違いを分析してポーズを推測することができる。
しかし、予測不可能で制約のないポーズのバリエーションのため、暗黙的に学習された特徴目的制約はトレーニングサンプルによって不十分にカバーされ、ネットワークが見えないオブジェクトのポーズに脆弱になる。
これらの課題に取り組むため,我々は直接回帰6次元ポーズ推定法としてgeo6dと呼ばれる新しい幾何学的制約学習手法を提案した。
相対オフセット表現で表されるポーズ変換式を導入し、ネットワークの入出力目標を再構成するための幾何学的制約として活用する。
これらの再構成されたデータにより、ネットワークは明示的な幾何学的制約に基づいてポーズを推定でき、相対オフセット表現はポーズ分布ギャップの問題を緩和する。
大規模な実験結果から,Geo6Dを装着すると,直接6D法は複数のデータセット上で最先端の性能を達成でき,10%の量のデータでも有意な有効性を示した。
関連論文リスト
- End-to-End Probabilistic Geometry-Guided Regression for 6DoF Object Pose Estimation [5.21401636701889]
最先端の6Dオブジェクトのポーズ推定器は、オブジェクト観察によってオブジェクトのポーズを直接予測する。
最先端アルゴリズムGDRNPPを再構成し,EPRO-GDRを導入する。
提案手法は,1つのポーズではなく1つのポーズ分布を予測することで,最先端の単一ビューのポーズ推定を改善することができることを示す。
論文 参考訳(メタデータ) (2024-09-18T09:11:31Z) - Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - Rigidity-Aware Detection for 6D Object Pose Estimation [60.88857851869196]
最近の6Dオブジェクトのポーズ推定方法は、最初にオブジェクト検出を使用して2Dバウンディングボックスを取得し、実際にポーズを回帰する。
本研究では,6次元ポーズ推定において対象物体が剛性であるという事実を利用した剛性認識検出手法を提案する。
このアプローチの成功の鍵となるのは可視性マップであり、これは境界ボックス内の各ピクセルとボックス境界の間の最小障壁距離を用いて構築することを提案する。
論文 参考訳(メタデータ) (2023-03-22T09:02:54Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - Investigations on Output Parameterizations of Neural Networks for Single
Shot 6D Object Pose Estimation [8.464912344558481]
単発6次元オブジェクトポーズ推定のためのニューラルネットワークの出力に対する新しいパラメータ化を提案する。
我々の学習に基づくアプローチは、2つの公開ベンチマークデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-04-15T15:29:53Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - Self6D: Self-Supervised Monocular 6D Object Pose Estimation [114.18496727590481]
自己教師付き学習による単眼6次元ポーズ推定のアイデアを提案する。
ニューラルレンダリングの最近の進歩を活用して、注釈のない実RGB-Dデータのモデルをさらに自己監督する。
論文 参考訳(メタデータ) (2020-04-14T13:16:36Z) - Object 6D Pose Estimation with Non-local Attention [29.929911622127502]
本研究では,オブジェクト検出フレームワークに6次元オブジェクトポーズパラメータ推定を組み込むネットワークを提案する。
提案手法は,YCB- VideoおよびLinemodデータセット上での最先端性能に到達する。
論文 参考訳(メタデータ) (2020-02-20T14:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。