論文の概要: Uni6Dv3: 5D Anchor Mechanism for 6D Pose Estimation
- arxiv url: http://arxiv.org/abs/2210.10959v2
- Date: Fri, 21 Oct 2022 09:28:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 11:04:57.241303
- Title: Uni6Dv3: 5D Anchor Mechanism for 6D Pose Estimation
- Title(参考訳): uni6dv3:6次元ポーズ推定のための5次元アンカー機構
- Authors: Jianqiu Chen, Mingshan Sun, Ye Zheng, Tianpeng Bao, Zhenyu He, Donghai
Li, Guoqiang Jin, Rui Zhao, Liwei Wu, Xiaoke Jiang
- Abstract要約: 物理空間の3次元座標と画像平面の2次元座標でアンカーを定義することで,5次元アンカー機構を提案する。
アンカーベースの物体検出法にインスパイアされた5Dアンカーは、ターゲットとアンカーの間のオフセットを後退させ、分散ギャップをなくす。
絶対的な入力を相対的な入力に置き換えることで、アンカーベースプロジェクションモデルを構築し、性能をさらに向上する。
- 参考スコア(独自算出の注目度): 17.454110878586462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlike indirect methods that usually require time-consuming post-processing,
recent deep learning-based direct methods for 6D pose estimation try to predict
the 3D rotation and 3D translation from RGB-D data directly. However, direct
methods, regressing the absolute translation of the pose, suffer from diverse
object translation distribution between training and test data, which is
usually caused by expensive data collection and annotation in practice. To this
end, we propose a 5D anchor mechanism by defining the anchor with 3D
coordinates in the physical space and 2D coordinates in the image plane.
Inspired by anchor-based object detection methods, 5D anchor regresses the
offset between the target and anchor, which eliminates the distribution gap and
transforms the regression target to a small range. But regressing offset leads
to the mismatch between the absolute input and relative output. We build an
anchor-based projection model by replacing the absolute input with the relative
one, which further improves the performance. By plugging 5D anchor into the
latest direct methods, Uni6Dv2 and ES6D obtain 38.7% and 3.5% improvement,
respectively. Specifically, Uni6Dv2+5D anchor, dubbed Uni6Dv3, achieves
state-of-the-art overall results on datasets including Occlusion LineMOD
(79.3%), LineMOD (99.5%), and YCB-Video datasets (91.5%), and requires only 10%
of training data to reach comparable performance as full data.
- Abstract(参考訳): 時間を要する間接的手法とは異なり、最近の深層学習に基づく6次元ポーズ推定法はRGB-Dデータから直接3次元回転と3次元翻訳を予測しようとする。
しかし、ポーズの絶対的な翻訳を遅らせる直接的な手法は、訓練データとテストデータの間の多様なオブジェクト翻訳の分布に悩まされ、これは通常、高価なデータ収集とアノテーションによって引き起こされる。
そこで本研究では,物理空間の3次元座標と画像平面の2次元座標でアンカーを定義することで,5次元アンカー機構を提案する。
アンカーベース物体検出法にインスパイアされた5Dアンカーは、ターゲットとアンカーの間のオフセットを後退させ、分散ギャップをなくし、回帰ターゲットを小さな範囲に変換する。
しかし、オフセットの回帰は絶対的な入力と相対的な出力のミスマッチにつながる。
絶対入力を相対入力に置き換えてアンカーに基づく投影モデルを構築し,性能をさらに向上させる。
5Dアンカーを最新の直接法に差し込むことで、Uni6Dv2とES6Dはそれぞれ38.7%と3.5%の改善が得られた。
具体的には、Uni6Dv2+5DアンカーはUni6Dv3と呼ばれ、Occlusion LineMOD (79.3%)、LineMOD (99.5%)、YCB-Video データセット (91.5%)などのデータセットに関する最先端の総合的な結果を達成する。
関連論文リスト
- End-to-End Probabilistic Geometry-Guided Regression for 6DoF Object Pose Estimation [5.21401636701889]
最先端の6Dオブジェクトのポーズ推定器は、オブジェクト観察によってオブジェクトのポーズを直接予測する。
最先端アルゴリズムGDRNPPを再構成し,EPRO-GDRを導入する。
提案手法は,1つのポーズではなく1つのポーズ分布を予測することで,最先端の単一ビューのポーズ推定を改善することができることを示す。
論文 参考訳(メタデータ) (2024-09-18T09:11:31Z) - Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - Rigidity-Aware Detection for 6D Object Pose Estimation [60.88857851869196]
最近の6Dオブジェクトのポーズ推定方法は、最初にオブジェクト検出を使用して2Dバウンディングボックスを取得し、実際にポーズを回帰する。
本研究では,6次元ポーズ推定において対象物体が剛性であるという事実を利用した剛性認識検出手法を提案する。
このアプローチの成功の鍵となるのは可視性マップであり、これは境界ボックス内の各ピクセルとボックス境界の間の最小障壁距離を用いて構築することを提案する。
論文 参考訳(メタデータ) (2023-03-22T09:02:54Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - Investigations on Output Parameterizations of Neural Networks for Single
Shot 6D Object Pose Estimation [8.464912344558481]
単発6次元オブジェクトポーズ推定のためのニューラルネットワークの出力に対する新しいパラメータ化を提案する。
我々の学習に基づくアプローチは、2つの公開ベンチマークデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-04-15T15:29:53Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - Self6D: Self-Supervised Monocular 6D Object Pose Estimation [114.18496727590481]
自己教師付き学習による単眼6次元ポーズ推定のアイデアを提案する。
ニューラルレンダリングの最近の進歩を活用して、注釈のない実RGB-Dデータのモデルをさらに自己監督する。
論文 参考訳(メタデータ) (2020-04-14T13:16:36Z) - Object 6D Pose Estimation with Non-local Attention [29.929911622127502]
本研究では,オブジェクト検出フレームワークに6次元オブジェクトポーズパラメータ推定を組み込むネットワークを提案する。
提案手法は,YCB- VideoおよびLinemodデータセット上での最先端性能に到達する。
論文 参考訳(メタデータ) (2020-02-20T14:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。