論文の概要: Pose Estimation of Specific Rigid Objects
- arxiv url: http://arxiv.org/abs/2112.15075v1
- Date: Thu, 30 Dec 2021 14:36:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-03 13:19:33.392272
- Title: Pose Estimation of Specific Rigid Objects
- Title(参考訳): 特定の剛体物体のポーズ推定
- Authors: Tomas Hodan
- Abstract要約: 本稿では,RGBまたはRGB-D入力画像から剛体物体の6次元ポーズを推定する問題に対処する。
この問題は、ロボット操作、拡張現実、自律運転など、多くの応用分野において非常に重要である。
- 参考スコア(独自算出の注目度): 0.7931904787652707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this thesis, we address the problem of estimating the 6D pose of rigid
objects from a single RGB or RGB-D input image, assuming that 3D models of the
objects are available. This problem is of great importance to many application
fields such as robotic manipulation, augmented reality, and autonomous driving.
First, we propose EPOS, a method for 6D object pose estimation from an RGB
image. The key idea is to represent an object by compact surface fragments and
predict the probability distribution of corresponding fragments at each pixel
of the input image by a neural network. Each pixel is linked with a
data-dependent number of fragments, which allows systematic handling of
symmetries, and the 6D poses are estimated from the links by a RANSAC-based
fitting method. EPOS outperformed all RGB and most RGB-D and D methods on
several standard datasets. Second, we present HashMatch, an RGB-D method that
slides a window over the input image and searches for a match against
templates, which are pre-generated by rendering 3D object models in different
orientations. The method applies a cascade of evaluation stages to each window
location, which avoids exhaustive matching against all templates. Third, we
propose ObjectSynth, an approach to synthesize photorealistic images of 3D
object models for training methods based on neural networks. The images yield
substantial improvements compared to commonly used images of objects rendered
on top of random photographs. Fourth, we introduce T-LESS, the first dataset
for 6D object pose estimation that includes 3D models and RGB-D images of
industry-relevant objects. Fifth, we define BOP, a benchmark that captures the
status quo in the field. BOP comprises eleven datasets in a unified format, an
evaluation methodology, an online evaluation system, and public challenges held
at international workshops organized at the ICCV and ECCV conferences.
- Abstract(参考訳): 本稿では,オブジェクトの3次元モデルが利用可能であることを前提として,単一のRGBまたはRGB-D入力画像から剛体の6次元ポーズを推定する問題に対処する。
この問題は、ロボット操作、拡張現実、自動運転など、多くのアプリケーション分野において非常に重要である。
まず,RGB画像から6次元オブジェクトのポーズ推定を行うEPOSを提案する。
キーとなるアイデアは、オブジェクトをコンパクトな表面フラグメントで表現し、ニューラルネットワークによって入力画像の各ピクセルにおける対応するフラグメントの確率分布を予測することである。
各画素はデータ依存のフラグメント数にリンクされ、シンメトリーの体系的なハンドリングが可能となり、6DポーズはRANSACベースのフィッティング法によるリンクから推定される。
EPOSは、いくつかの標準データセット上ですべてのRGBおよびほとんどのRGB-DおよびDメソッドを上回った。
第2に,入力画像上にウィンドウをスライドさせてテンプレートとのマッチングを検索するRGB-D法であるHashMatchを提案する。
評価段階のカスケードを各ウィンドウ位置に適用し、全てのテンプレートに対する徹底的なマッチングを回避する。
第3に,ニューラルネットワークに基づくトレーニング手法のための3次元オブジェクトモデルの写実画像合成手法であるObjectSynthを提案する。
この画像は、ランダムな写真の上にレンダリングされたオブジェクトの一般的な画像と比べて大幅に改善される。
第4に,産業関連オブジェクトの3次元モデルとRGB-D画像を含む6次元オブジェクトポーズ推定のための最初のデータセットであるT-LESSを紹介する。
第5に、フィールドのステータスクオをキャプチャするベンチマークであるBOPを定義します。
BOPは、ICCVおよびECCV会議で組織された国際ワークショップで開催される11のデータセット、評価方法論、オンライン評価システム、公開課題から構成される。
関連論文リスト
- RDPN6D: Residual-based Dense Point-wise Network for 6Dof Object Pose Estimation Based on RGB-D Images [13.051302134031808]
単一のRGB-D画像を用いてオブジェクトの6DoFポーズを計算する新しい手法を提案する。
オブジェクトのポーズを直接予測する既存の手法や、ポーズ回復のためのスパースキーポイントに依存する既存の手法とは異なり、我々のアプローチは密度の高い対応を使ってこの課題に対処する。
論文 参考訳(メタデータ) (2024-05-14T10:10:45Z) - MatchU: Matching Unseen Objects for 6D Pose Estimation from RGB-D Images [57.71600854525037]
RGB-D画像からの6次元ポーズ推定のためのFuse-Describe-Match戦略を提案する。
MatchUは、2Dテクスチャと6Dポーズ予測のための3D幾何学的手がかりを融合する汎用的なアプローチである。
論文 参考訳(メタデータ) (2024-03-03T14:01:03Z) - 6D Object Pose Estimation from Approximate 3D Models for Orbital
Robotics [19.64111218032901]
単一画像から物体の6次元ポーズを推定する新しい手法を提案する。
画素毎に3次元モデル座標を回帰する高密度な2次元から3次元対応予測器を用いる。
提案手法は,SPEED+データセット上での最先端性能を実現し,SPEC2021ポストモーテムコンペティションで優勝した。
論文 参考訳(メタデータ) (2023-03-23T13:18:05Z) - 3D Neural Embedding Likelihood: Probabilistic Inverse Graphics for
Robust 6D Pose Estimation [50.15926681475939]
逆グラフィックスは2次元画像から3次元シーン構造を推論することを目的としている。
確率モデルを導入し,不確実性を定量化し,6次元ポーズ推定タスクにおけるロバスト性を実現する。
3DNELは、RGBから学んだニューラルネットワークの埋め込みと深度情報を組み合わせることで、RGB-D画像からのsim-to-real 6Dオブジェクトのポーズ推定の堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-02-07T20:48:35Z) - PoET: Pose Estimation Transformer for Single-View, Multi-Object 6D Pose
Estimation [6.860183454947986]
本稿では、RGB画像を入力とし、画像内の各オブジェクトに対する6Dポーズを予測するトランスフォーマーベースのアプローチを提案する。
画像のほかに、深度マップや3Dオブジェクトモデルなどの追加情報も不要です。
挑戦的なYCB-Vデータセットに対するRGBのみのアプローチの最先端結果を得る。
論文 参考訳(メタデータ) (2022-11-25T14:07:14Z) - Neural Correspondence Field for Object Pose Estimation [67.96767010122633]
1枚のRGB画像から3次元モデルで剛体物体の6DoFポーズを推定する手法を提案する。
入力画像の画素で3次元オブジェクト座標を予測する古典的対応法とは異なり,提案手法はカメラフラストラムでサンプリングされた3次元クエリポイントで3次元オブジェクト座標を予測する。
論文 参考訳(メタデータ) (2022-07-30T01:48:23Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - EPOS: Estimating 6D Pose of Objects with Symmetries [57.448933686429825]
1つのRGB入力から利用可能な3次元モデルを用いて、剛体物体の6次元ポーズを推定する新しい手法を提案する。
オブジェクトは、体系的な方法で対称性を許容するコンパクトな表面フラグメントによって表現される。
エンコーダデコーダネットワークを用いて,高密度サンプリング画素とフラグメントの対応性を予測する。
論文 参考訳(メタデータ) (2020-04-01T17:41:08Z) - L6DNet: Light 6 DoF Network for Robust and Precise Object Pose
Estimation with Small Datasets [0.0]
1枚のRGB-D画像から6つのDoFオブジェクトのポーズ推定を行う新しい手法を提案する。
データ駆動と幾何学という2段階のハイブリッドパイプラインを採用しています。
私たちのアプローチは最先端の手法よりも堅牢で正確です。
論文 参考訳(メタデータ) (2020-02-03T17:41:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。