論文の概要: Neural Object Learning for 6D Pose Estimation Using a Few Cluttered
Images
- arxiv url: http://arxiv.org/abs/2005.03717v2
- Date: Fri, 21 Aug 2020 15:28:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 00:00:36.222106
- Title: Neural Object Learning for 6D Pose Estimation Using a Few Cluttered
Images
- Title(参考訳): 少数のクラッタ画像を用いた6次元空間推定のためのニューラル物体学習
- Authors: Kiru Park, Timothy Patten, Markus Vincze
- Abstract要約: 近年のオブジェクトの6次元ポーズ推定手法は、テクスチャ化された3次元モデルか、ターゲットポーズの全範囲をカバーする実像のいずれかを仮定している。
本稿では,乱雑な画像からのわずかな観察を組み合わせ,任意のポーズでオブジェクトの合成画像を生成するニューラルオブジェクト学習(NOL)を提案する。
- 参考スコア(独自算出の注目度): 30.240630713652035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent methods for 6D pose estimation of objects assume either textured 3D
models or real images that cover the entire range of target poses. However, it
is difficult to obtain textured 3D models and annotate the poses of objects in
real scenarios. This paper proposes a method, Neural Object Learning (NOL),
that creates synthetic images of objects in arbitrary poses by combining only a
few observations from cluttered images. A novel refinement step is proposed to
align inaccurate poses of objects in source images, which results in better
quality images. Evaluations performed on two public datasets show that the
rendered images created by NOL lead to state-of-the-art performance in
comparison to methods that use 13 times the number of real images. Evaluations
on our new dataset show multiple objects can be trained and recognized
simultaneously using a sequence of a fixed scene.
- Abstract(参考訳): 近年のオブジェクトの6次元ポーズ推定手法は、テクスチャ化された3次元モデルか、ターゲットポーズの全範囲をカバーする実像のいずれかを想定している。
しかし、テクスチャ化された3Dモデルを取得し、実際のシナリオでオブジェクトのポーズをアノテートすることは困難である。
本稿では,乱雑な画像からのわずかな観察を組み合わせ,任意のポーズでオブジェクトの合成画像を生成するニューラルオブジェクト学習(NOL)を提案する。
ソース画像中のオブジェクトの不正確なポーズを調整するために,新しい改良ステップが提案されている。
2つの公開データセットで実施された評価によると、NOLによって生成されたレンダリング画像は、実際の画像の13倍の手法と比較して、最先端のパフォーマンスにつながる。
新しいデータセットの評価では、固定シーンのシーケンスを使用して複数のオブジェクトを同時にトレーニングし、認識することができる。
関連論文リスト
- Learning a Category-level Object Pose Estimator without Pose Annotations [37.03715008347576]
ポーズアノテーションを使わずにカテゴリレベルの3Dオブジェクトのポーズ推定を学習することを提案する。
手動でアノテートされた画像を使用する代わりに、拡散モデルを利用して、制御されたポーズ差の下で一連の画像を生成する。
提案手法は,単一ショット設定からカテゴリレベルのオブジェクトポーズ推定を行う能力を有することを示す。
論文 参考訳(メタデータ) (2024-04-08T15:59:29Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - NOPE: Novel Object Pose Estimation from a Single Image [67.11073133072527]
本稿では,新しいオブジェクトの1つのイメージを入力として取り込んで,オブジェクトの3Dモデルに関する事前知識を必要とせずに,新しいイメージにおけるオブジェクトの相対的なポーズを予測するアプローチを提案する。
我々は、オブジェクトを取り巻く視点に対する識別的埋め込みを直接予測するモデルを訓練することで、これを実現する。
この予測は単純なU-Netアーキテクチャを用いて行われ、要求されたポーズに注意を向け、条件を定め、非常に高速な推論をもたらす。
論文 参考訳(メタデータ) (2023-03-23T18:55:43Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Few-View Object Reconstruction with Unknown Categories and Camera Poses [80.0820650171476]
この研究は、カメラのポーズやオブジェクトのカテゴリを知らない少数の画像から、一般的な現実世界のオブジェクトを再構築する。
私たちの研究の要点は、形状再構成とポーズ推定という、2つの基本的な3D視覚問題を解決することです。
提案手法は,各ビューから3次元特徴を予測し,それらを入力画像と組み合わせて活用し,クロスビュー対応を確立する。
論文 参考訳(メタデータ) (2022-12-08T18:59:02Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Neural Articulated Radiance Field [90.91714894044253]
本稿では,画像から学習した明瞭な物体に対する新しい変形可能な3次元表現であるニューラルArticulated Radiance Field(NARF)を提案する。
実験の結果,提案手法は効率的であり,新しいポーズにうまく一般化できることがわかった。
論文 参考訳(メタデータ) (2021-04-07T13:23:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。