論文の概要: CPS++: Improving Class-level 6D Pose and Shape Estimation From Monocular
Images With Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2003.05848v3
- Date: Fri, 11 Sep 2020 10:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 15:06:34.246589
- Title: CPS++: Improving Class-level 6D Pose and Shape Estimation From Monocular
Images With Self-Supervised Learning
- Title(参考訳): cps++: 自己教師付き学習による単眼画像からのクラスレベルの6次元ポーズと形状推定の改善
- Authors: Fabian Manhardt and Gu Wang and Benjamin Busam and Manuel Nickel and
Sven Meier and Luca Minciullo and Xiangyang Ji and Nassir Navab
- Abstract要約: 現代のモノクロ6Dポーズ推定手法は、少数のオブジェクトインスタンスにしか対応できない。
そこで本研究では,計量形状検索と組み合わせて,クラスレベルのモノクル6次元ポーズ推定手法を提案する。
1枚のRGB画像から正確な6Dポーズとメートル法形状を抽出できることを実験的に実証した。
- 参考スコア(独自算出の注目度): 74.53664270194643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contemporary monocular 6D pose estimation methods can only cope with a
handful of object instances. This naturally hampers possible applications as,
for instance, robots seamlessly integrated in everyday processes necessarily
require the ability to work with hundreds of different objects. To tackle this
problem of immanent practical relevance, we propose a novel method for
class-level monocular 6D pose estimation, coupled with metric shape retrieval.
Unfortunately, acquiring adequate annotations is very time-consuming and labor
intensive. This is especially true for class-level 6D pose estimation, as one
is required to create a highly detailed reconstruction for all objects and then
annotate each object and scene using these models. To overcome this
shortcoming, we additionally propose the idea of synthetic-to-real domain
transfer for class-level 6D poses by means of self-supervised learning, which
removes the burden of collecting numerous manual annotations. In essence, after
training our proposed method fully supervised with synthetic data, we leverage
recent advances in differentiable rendering to self-supervise the model with
unannotated real RGB-D data to improve latter inference. We experimentally
demonstrate that we can retrieve precise 6D poses and metric shapes from a
single RGB image.
- Abstract(参考訳): 現代のモノキュラーな6dポーズ推定手法は、わずかなオブジェクトインスタンスしか扱えない。
例えば、日常的なプロセスにシームレスに統合されたロボットは、数百もの異なるオブジェクトを扱う能力を必要とします。
そこで本研究では,この課題に対処するために,計量形状検索と組み合わせて,クラスレベルのモノクル6Dポーズ推定手法を提案する。
残念ながら、適切なアノテーションを取得するのは非常に時間と労力がかかります。
これはクラスレベルの6dポーズ推定に特に当てはまり、すべてのオブジェクトの詳細な再構築を作成し、これらのモデルを使用して各オブジェクトとシーンに注釈を付ける必要がある。
さらに,この欠点を克服するために,自己教師付き学習によるクラスレベルの6Dポーズに対する合成から現実へのドメイン転送を提案し,多数の手動アノテーションの収集の負担を軽減した。
本質的には,提案手法を合成データで完全に教師する訓練の後,非注釈の実RGB-Dデータを用いてモデルを自己監督し,後者の推論を改善するために,微分可能レンダリングの最近の進歩を活用する。
1枚のRGB画像から正確な6Dポーズとメートル法形状を抽出できることを実験的に実証した。
関連論文リスト
- Self-Supervised Geometric Correspondence for Category-Level 6D Object
Pose Estimation in the Wild [47.80637472803838]
本研究では,大規模現実世界のオブジェクトビデオを直接学習し,カテゴリーレベルの6Dポーズ推定を行う自己教師型学習手法を提案する。
本フレームワークは,対象カテゴリの正準3次元形状を再構成し,入力画像と正準形状との密接な対応を表面埋め込みにより学習する。
意外なことに、人間のアノテーションやシミュレータを使わずに、従来の教師付きあるいは半教師付き画像の半教師付き手法よりも、オンパーまたはそれ以上のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2022-10-13T17:19:22Z) - Imitrob: Imitation Learning Dataset for Training and Evaluating 6D
Object Pose Estimators [20.611000416051546]
本稿では,標準RGBカメラで捉えたタスクデモにおける手持ちツールの6次元ポーズ推定のためのトレーニングと評価のためのデータセットを提案する。
このデータセットには、9つの異なるツールと12の操作タスクのイメージシーケンスが含まれており、2つのカメラ視点、4人の被写体、そして左右手である。
論文 参考訳(メタデータ) (2022-09-16T14:43:46Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Occlusion-Aware Self-Supervised Monocular 6D Object Pose Estimation [88.8963330073454]
自己教師付き学習による新しい単眼6次元ポーズ推定手法を提案する。
ノイズの多い学生のトレーニングと差別化可能なレンダリングの現在の傾向を活用して、モデルをさらに自己監督する。
提案する自己超越法は,合成データに依存する他の方法よりも優れている。
論文 参考訳(メタデータ) (2022-03-19T15:12:06Z) - OVE6D: Object Viewpoint Encoding for Depth-based 6D Object Pose
Estimation [12.773040823634908]
単一深度画像と対象物マスクからモデルに基づく6次元オブジェクトのポーズ推定を行うために,OVE6Dと呼ばれる普遍的なフレームワークを提案する。
われわれのモデルはShapeNetから生成された純粋に合成されたデータを用いて訓練されており、既存のほとんどの方法とは異なり、微調整なしで新しい現実世界のオブジェクトをうまく一般化する。
OVE6Dは、現実世界のトレーニングデータを用いて、個々のオブジェクトやデータセットに特化して訓練された、現代の深層学習に基づくポーズ推定手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-02T12:51:33Z) - Disentangled Implicit Shape and Pose Learning for Scalable 6D Pose
Estimation [44.8872454995923]
単一オートエンコーダを用いた複数オブジェクトの合成データに対する自己教師付き学習により,スケーラブルな6次元ポーズ推定のための新しい手法を提案する。
提案手法は,T-LESS と NOCS REAL275 という実データを持つ2つのマルチオブジェクトベンチマークで検証し,ポーズ推定精度と一般化の点で既存の RGB 法より優れていることを示す。
論文 参考訳(メタデータ) (2021-07-27T01:55:30Z) - 3D Registration for Self-Occluded Objects in Context [66.41922513553367]
このシナリオを効果的に処理できる最初のディープラーニングフレームワークを紹介します。
提案手法はインスタンスセグメンテーションモジュールとポーズ推定モジュールから構成される。
これにより、高価な反復手順を必要とせず、ワンショットで3D登録を行うことができます。
論文 参考訳(メタデータ) (2020-11-23T08:05:28Z) - Self6D: Self-Supervised Monocular 6D Object Pose Estimation [114.18496727590481]
自己教師付き学習による単眼6次元ポーズ推定のアイデアを提案する。
ニューラルレンダリングの最近の進歩を活用して、注釈のない実RGB-Dデータのモデルをさらに自己監督する。
論文 参考訳(メタデータ) (2020-04-14T13:16:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。