論文の概要: BOP-D: Revisiting 6D Pose Estimation Benchmark for Better Evaluation under Visual Ambiguities
- arxiv url: http://arxiv.org/abs/2408.17297v1
- Date: Fri, 30 Aug 2024 13:52:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-02 15:08:40.285060
- Title: BOP-D: Revisiting 6D Pose Estimation Benchmark for Better Evaluation under Visual Ambiguities
- Title(参考訳): BOP-D:視覚的曖昧さ下での評価を改善するための6次元視点推定ベンチマークの再検討
- Authors: Boris Meden, Asma Brazi, Steve Bourgeois, Fabrice Mayran de Chamisso, Vincent Lepetit,
- Abstract要約: 現在、6次元ポーズ推定法は、その基礎となる真理アノテーションに対して、視覚的曖昧性は、グローバルなオブジェクト対称性にのみ関連していると考えるデータセット上でベンチマークされている。
本稿では,画像内の物体表面の視認性を考慮し,各画像に特有の6次元ポーズ分布を付加したデータセットのアノテート手法を提案する。
我々のアノテーションは、実画像上のポーズ分布を初めて推定できる最近の手法のベンチマークを可能にします。
- 参考スコア(独自算出の注目度): 16.706945699819308
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Currently, 6D pose estimation methods are benchmarked on datasets that consider, for their ground truth annotations, visual ambiguities as only related to global object symmetries. However, as previously observed [26], visual ambiguities can also happen depending on the viewpoint or the presence of occluding objects, when disambiguating parts become hidden. The visual ambiguities are therefore actually different across images. We thus first propose an automatic method to re-annotate those datasets with a 6D pose distribution specific to each image, taking into account the visibility of the object surface in the image to correctly determine the visual ambiguities. Given this improved ground truth, we re-evaluate the state-of-the-art methods and show this greatly modify the ranking of these methods. Our annotations also allow us to benchmark recent methods able to estimate a pose distribution on real images for the first time. We will make our annotations for the T-LESS dataset and our code publicly available.
- Abstract(参考訳): 現在、6次元ポーズ推定法は、その基礎となる真理アノテーションに対して、視覚的曖昧性は、グローバルなオブジェクト対称性にのみ関連していると考えるデータセット上でベンチマークされている。
しかし、前述した[26]と同様に、不明瞭な部分が隠される際には、視界や隠蔽物の存在によっても視覚的曖昧性が生じることがある。
したがって、視覚的あいまいさは実際には画像によって異なる。
そこで我々はまず,画像内の物体表面の視認性を考慮し,各画像に特有の6次元ポーズ分布でこれらのデータセットを再アノテートする自動手法を提案する。
この改良された基礎的事実から、最先端の手法を再評価し、これらの手法のランク付けを大幅に変更したことを示す。
我々のアノテーションは、実画像上のポーズ分布を初めて推定できる最近の手法のベンチマークを可能にします。
T-LESSデータセットのアノテーションとコードを公開します。
関連論文リスト
- ZS6D: Zero-shot 6D Object Pose Estimation using Vision Transformers [9.899633398596672]
ゼロショット新規オブジェクト6Dのポーズ推定にZS6Dを導入する。
事前訓練された視覚変換器(ViT)を用いて抽出された視覚ディスクリプタは、レンダリングテンプレートのマッチングに使用される。
LMO、YCBV、TLESSデータセットで実験が行われる。
論文 参考訳(メタデータ) (2023-09-21T11:53:01Z) - RelPose++: Recovering 6D Poses from Sparse-view Observations [66.6922660401558]
スパースビュー画像集合(2-8画像)から6次元カメラポーズを推定する作業に対処する。
我々は,画像対上の相対回転よりも分布を推定するネットワークを学習するRelPoseフレームワークを構築した。
最終システムは,先行技術よりも6次元ポーズ予測を大幅に改善する。
論文 参考訳(メタデータ) (2023-05-08T17:59:58Z) - Rigidity-Aware Detection for 6D Object Pose Estimation [60.88857851869196]
最近の6Dオブジェクトのポーズ推定方法は、最初にオブジェクト検出を使用して2Dバウンディングボックスを取得し、実際にポーズを回帰する。
本研究では,6次元ポーズ推定において対象物体が剛性であるという事実を利用した剛性認識検出手法を提案する。
このアプローチの成功の鍵となるのは可視性マップであり、これは境界ボックス内の各ピクセルとボックス境界の間の最小障壁距離を用いて構築することを提案する。
論文 参考訳(メタデータ) (2023-03-22T09:02:54Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - CosyPose: Consistent multi-view multi-object 6D pose estimation [48.097599674329004]
単視点単体6次元ポーズ推定法を提案し、6次元オブジェクトのポーズ仮説を生成する。
第2に、異なる入力画像間で個々の6次元オブジェクトのポーズをマッチングするロバストな手法を開発する。
第3に、複数のオブジェクト仮説とそれらの対応性を考慮したグローバルなシーン改善手法を開発した。
論文 参考訳(メタデータ) (2020-08-19T14:11:56Z) - PrimA6D: Rotational Primitive Reconstruction for Enhanced and Robust 6D
Pose Estimation [11.873744190924599]
本稿では,1つの画像を入力として,回転プリミティブに基づく6次元オブジェクトポーズ推定を提案する。
変分オートエンコーダ(VAE)を利用して、基礎となるプリミティブとその関連するキーポイントを学習する。
公開データセットに対して評価すると,LINEMOD,Occlusion LINEMOD,およびY誘発データセットよりも顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-06-14T03:55:42Z) - Introducing Pose Consistency and Warp-Alignment for Self-Supervised 6D
Object Pose Estimation in Color Images [38.9238085806793]
オブジェクトの6Dポーズを推定する最も成功したアプローチは、現実世界の画像で注釈付きのポーズで学習を監督することによって、ニューラルネットワークを訓練する。
既存のニューラルネットワークベースのアプローチの上に適用可能な2段階の6Dオブジェクトポーズ推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-27T11:53:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。