論文の概要: Robust RGB-based 6-DoF Pose Estimation without Real Pose Annotations
- arxiv url: http://arxiv.org/abs/2008.08391v1
- Date: Wed, 19 Aug 2020 12:07:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 11:58:58.131354
- Title: Robust RGB-based 6-DoF Pose Estimation without Real Pose Annotations
- Title(参考訳): 実測アノテーションを伴わないロバストなRGBベースの6-DoFポーズ推定
- Authors: Zhigang Li, Yinlin Hu, Mathieu Salzmann, and Xiangyang Ji
- Abstract要約: そこで本研究では,実際のポーズアノテーションを使わずに,課題条件下での6-DoFのポーズを頑健かつ正確に推定する手法を提案する。
LINEMOD と OccludedLINEMOD を実地設定なしで実現し、Occluded-LINEMOD のトレーニング中に実際のアノテーションに依存する方法よりも優れています。
- 参考スコア(独自算出の注目度): 92.5075742765229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While much progress has been made in 6-DoF object pose estimation from a
single RGB image, the current leading approaches heavily rely on
real-annotation data. As such, they remain sensitive to severe occlusions,
because covering all possible occlusions with annotated data is intractable. In
this paper, we introduce an approach to robustly and accurately estimate the
6-DoF pose in challenging conditions and without using any real pose
annotations. To this end, we leverage the intuition that the poses predicted by
a network from an image and from its counterpart synthetically altered to mimic
occlusion should be consistent, and translate this to a self-supervised loss
function. Our experiments on LINEMOD, Occluded-LINEMOD, YCB and new
Randomization LINEMOD dataset evidence the robustness of our approach. We
achieve state of the art performance on LINEMOD, and OccludedLINEMOD in without
real-pose setting, even outperforming methods that rely on real annotations
during training on Occluded-LINEMOD.
- Abstract(参考訳): 単一のRGB画像から6-DoFオブジェクトのポーズ推定に多くの進歩があったが、現在の主要なアプローチは実際のアノテーションデータに大きく依存している。
したがって、全ての可能な咬合を注釈付きデータでカバーすることは難易度が高いため、重症咬合に敏感である。
本稿では,実ポーズアノテーションを使わずに,難易度の高い条件下で6自由度姿勢をロバストかつ正確に推定する手法を提案する。
この目的のために,画像からネットワークによって予測されるポーズと,それに対して合成的に変化して咬合を模倣するポーズとの直観を両立させ,これを自己教師付き損失関数に変換する。
LINEMOD, Occluded-LINEMOD, YCB, および新しいランダム化LINEMODデータセットを用いた実験により, 本手法の堅牢性が確認された。
LINEMOD と OccludedLINEMOD を実地設定なしで実現し、Occluded-LINEMOD のトレーニング中に実際のアノテーションに依存する方法よりも優れています。
関連論文リスト
- MSDA: Monocular Self-supervised Domain Adaptation for 6D Object Pose
Estimation [12.773040823634908]
実画像からラベル付き6Dポーズを取得するための自己教師付きドメイン適応手法を提案する。
まず、合成RGB画像を用いてモデルを事前訓練し、次に実RGB(-D)画像を用いて事前訓練されたモデルを微調整する。
我々は,本手法が完全教師付き手法と同等の性能を発揮することを実験的に実証した。
論文 参考訳(メタデータ) (2023-02-14T19:34:41Z) - RNNPose: Recurrent 6-DoF Object Pose Refinement with Robust
Correspondence Field Estimation and Pose Optimization [46.144194562841435]
本稿では、オブジェクトポーズ改善のためのリカレントニューラルネットワーク(RNN)に基づくフレームワークを提案する。
この問題は、推定対応フィールドに基づいて非線形最小二乗問題として定式化される。
各イテレーションにおいて、対応フィールド推定とポーズ精錬を代替して行い、正確なオブジェクトポーズを復元する。
論文 参考訳(メタデータ) (2022-03-24T06:24:55Z) - Occlusion-Aware Self-Supervised Monocular 6D Object Pose Estimation [88.8963330073454]
自己教師付き学習による新しい単眼6次元ポーズ推定手法を提案する。
ノイズの多い学生のトレーニングと差別化可能なレンダリングの現在の傾向を活用して、モデルをさらに自己監督する。
提案する自己超越法は,合成データに依存する他の方法よりも優れている。
論文 参考訳(メタデータ) (2022-03-19T15:12:06Z) - SporeAgent: Reinforced Scene-level Plausibility for Object Pose
Refinement [28.244027792644097]
深度とRGBに基づくポーズ改善アプローチは、結果のポーズ推定の精度を高めるが、視覚的アライメントを考慮するとあいまいさの影響を受けやすい。
可視性を考慮するとあいまいさが減少し、その結果、乱雑な環境でより正確にポーズを予測できることが示される。
LINEMOD および YCB-VIDEO データセットを用いた実験により, 深度に基づく精錬手法の最先端性能が実証された。
論文 参考訳(メタデータ) (2022-01-01T20:26:19Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - Self6D: Self-Supervised Monocular 6D Object Pose Estimation [114.18496727590481]
自己教師付き学習による単眼6次元ポーズ推定のアイデアを提案する。
ニューラルレンダリングの最近の進歩を活用して、注釈のない実RGB-Dデータのモデルをさらに自己監督する。
論文 参考訳(メタデータ) (2020-04-14T13:16:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。