論文の概要: Gen6D: Generalizable Model-Free 6-DoF Object Pose Estimation from RGB
Images
- arxiv url: http://arxiv.org/abs/2204.10776v1
- Date: Fri, 22 Apr 2022 15:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 13:43:29.222496
- Title: Gen6D: Generalizable Model-Free 6-DoF Object Pose Estimation from RGB
Images
- Title(参考訳): gen6d: rgb画像からのモデルフリーな6自由度物体ポーズ推定
- Authors: Yuan Liu and Yilin Wen and Sida Peng and Cheng Lin and Xiaoxiao Long
and Taku Komura and Wenping Wang
- Abstract要約: 我々は、Gen6Dと呼ばれる一般化可能なモデルフリー6-DoFオブジェクトポーズ推定器を提案する。
Gen6Dは3Dオブジェクトモデルを必要としないオブジェクト検出器、視点セレクタ、ポーズリファインダーで構成されている。
実験により、Gen6Dは2つのモデルフリーデータセットに対して最先端の結果を達成することが示された。
- 参考スコア(独自算出の注目度): 38.691825038407785
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we present a generalizable model-free 6-DoF object pose
estimator called Gen6D. Existing generalizable pose estimators either need
high-quality object models or require additional depth maps or object masks in
test time, which significantly limits their application scope. In contrast, our
pose estimator only requires some posed images of the unseen object and is able
to accurately predict the poses of the object in arbitrary environments. Gen6D
consists of an object detector, a viewpoint selector and a pose refiner, all of
which do not require the 3D object model and can generalize to unseen objects.
Experiments show that Gen6D achieves state-of-the-art results on two model-free
datasets: the MOPED dataset and a new GenMOP dataset collected by us. In
addition, on the LINEMOD dataset, Gen6D achieves competitive results compared
with instance-specific pose estimators. Project page:
https://liuyuan-pal.github.io/Gen6D/.
- Abstract(参考訳): 本稿では,Gen6Dと呼ばれるモデルフリーな6-DoFオブジェクトポーズ推定器を提案する。
既存の一般化可能なポーズ推定器は高品質なオブジェクトモデルを必要とするか、テスト時間内に追加の深度マップやオブジェクトマスクを必要とする。
対照的に、ポーズ推定器は、見えないオブジェクトのポーズ画像のみを必要とし、任意の環境でオブジェクトのポーズを正確に予測することができる。
Gen6Dはオブジェクト検出器、視点セレクタ、ポーズリファクターで構成され、これらは全て3Dオブジェクトモデルを必要としないため、見えないオブジェクトに一般化することができる。
実験によると、gen6dはmopedデータセットと新しいgenmopデータセットという2つのモデルフリーデータセットで最先端の結果を得る。
さらに、LINEMODデータセットでは、Gen6Dはインスタンス固有のポーズ推定器と比較して、競合的な結果が得られる。
プロジェクトページ: https://liuyuan-pal.github.io/gen6d/
関連論文リスト
- Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Category-Level 6D Object Pose Estimation in the Wild: A Semi-Supervised
Learning Approach and A New Dataset [12.40437099476348]
カテゴリーレベルの6次元オブジェクトのポーズ推定を半教師付き学習で一般化する。
提案手法は, 合成データと自由接地構造を用いて協調的に学習するRendering for Pose Estimation Network RePoNetという新しいモデルを提案する。
提案手法は,前回のデータセットとWild6Dテストセット(評価用手動アノテーション付き)の最先端の手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-06-30T17:30:57Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - OVE6D: Object Viewpoint Encoding for Depth-based 6D Object Pose
Estimation [12.773040823634908]
単一深度画像と対象物マスクからモデルに基づく6次元オブジェクトのポーズ推定を行うために,OVE6Dと呼ばれる普遍的なフレームワークを提案する。
われわれのモデルはShapeNetから生成された純粋に合成されたデータを用いて訓練されており、既存のほとんどの方法とは異なり、微調整なしで新しい現実世界のオブジェクトをうまく一般化する。
OVE6Dは、現実世界のトレーニングデータを用いて、個々のオブジェクトやデータセットに特化して訓練された、現代の深層学習に基づくポーズ推定手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-02T12:51:33Z) - CosyPose: Consistent multi-view multi-object 6D pose estimation [48.097599674329004]
単視点単体6次元ポーズ推定法を提案し、6次元オブジェクトのポーズ仮説を生成する。
第2に、異なる入力画像間で個々の6次元オブジェクトのポーズをマッチングするロバストな手法を開発する。
第3に、複数のオブジェクト仮説とそれらの対応性を考慮したグローバルなシーン改善手法を開発した。
論文 参考訳(メタデータ) (2020-08-19T14:11:56Z) - Single Shot 6D Object Pose Estimation [11.37625512264302]
深度画像に基づく剛体物体の6次元オブジェクトポーズ推定のための新しい単一ショット手法を提案する。
完全な畳み込みニューラルネットワークを用い、3次元入力データを空間的に離散化し、ポーズ推定を回帰タスクとみなす。
GPU上の65fpsでは、Object Pose Network(OP-Net)は非常に高速で、エンドツーエンドに最適化され、画像内の複数のオブジェクトの6Dポーズを同時に推定する。
論文 参考訳(メタデータ) (2020-04-27T11:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。