論文の概要: BOP Challenge 2022 on Detection, Segmentation and Pose Estimation of
Specific Rigid Objects
- arxiv url: http://arxiv.org/abs/2302.13075v1
- Date: Sat, 25 Feb 2023 13:12:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 19:07:18.322998
- Title: BOP Challenge 2022 on Detection, Segmentation and Pose Estimation of
Specific Rigid Objects
- Title(参考訳): bop challenge 2022 特定剛体物体の検出, セグメンテーション, ポーズ推定について
- Authors: Martin Sundermeyer, Tomas Hodan, Yann Labbe, Gu Wang, Eric Brachmann,
Bertram Drost, Carsten Rother, Jiri Matas
- Abstract要約: 2010年に導入された点対の特徴に基づく手法は、ディープラーニング手法によって明らかに優れています。
合成と実のドメインギャップは、再び大幅に縮小された。
最も高速なGDRNPPは80.5 AR$_C$に到達し、画像当たりの平均時間は0.23秒だった。
- 参考スコア(独自算出の注目度): 59.70444717956975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the evaluation methodology, datasets and results of the BOP
Challenge 2022, the fourth in a series of public competitions organized with
the goal to capture the status quo in the field of 6D object pose estimation
from an RGB/RGB-D image. In 2022, we witnessed another significant improvement
in the pose estimation accuracy -- the state of the art, which was 56.9 AR$_C$
in 2019 (Vidal et al.) and 69.8 AR$_C$ in 2020 (CosyPose), moved to new heights
of 83.7 AR$_C$ (GDRNPP). Out of 49 pose estimation methods evaluated since
2019, the top 18 are from 2022. Methods based on point pair features, which
were introduced in 2010 and achieved competitive results even in 2020, are now
clearly outperformed by deep learning methods. The synthetic-to-real domain gap
was again significantly reduced, with 82.7 AR$_C$ achieved by GDRNPP trained
only on synthetic images from BlenderProc. The fastest variant of GDRNPP
reached 80.5 AR$_C$ with an average time per image of 0.23s. Since most of the
recent methods for 6D object pose estimation begin by detecting/segmenting
objects, we also started evaluating 2D object detection and segmentation
performance based on the COCO metrics. Compared to the Mask R-CNN results from
CosyPose in 2020, detection improved from 60.3 to 77.3 AP$_C$ and segmentation
from 40.5 to 58.7 AP$_C$. The online evaluation system stays open and is
available at: \href{http://bop.felk.cvut.cz/}{bop.felk.cvut.cz}.
- Abstract(参考訳): 本稿では,RGB/RGB-D画像からの6Dオブジェクトのポーズ推定の分野における現状の把握を目的とした,一連の公開コンペティションの第4弾であるBOP Challenge 2022の評価手法,データセット,結果について述べる。
2022年には、ポーズ推定精度がさらに大幅に改善され、2019年の56.9 AR$_C$(Vidalなど)と2020年の69.8 AR$_C$(CosyPose)が、83.7 AR$_C$(GDRNPP)に移行した。
2019年以降に評価された49のポーズ推定方法のうち、トップ18は2022年のものだ。
2010年に導入され、2020年にも競争力のある結果を達成したポイントペア機能に基づくメソッドは、ディープラーニングの方法によって明らかに優れています。
合成-実領域間ギャップは再び大幅に減少し、ブレンダプロップの合成画像のみを訓練したgdrnppによって82.7ar$_c$が達成された。
最も高速なGDRNPPは80.5 AR$_C$に到達し、画像当たりの平均時間は0.23秒だった。
近年の6次元オブジェクトポーズ推定手法は,オブジェクトの検出・分離から始まっているため,COCO測定値に基づく2次元オブジェクト検出とセグメンテーション性能の評価も開始した。
2020年のMask R-CNNの結果と比較すると、検出は60.3から77.3 AP$_C$に改善され、セグメンテーションは40.5から58.7 AP$_C$に改善された。
オンライン評価システムは引き続き公開されており、以下で利用可能である。
関連論文リスト
- BOP Challenge 2023 on Detection, Segmentation and Pose Estimation of Seen and Unseen Rigid Objects [54.90773237124648]
BOPチャレンジ2023(BOP Challenge 2023)は、モデルベースの6Dオブジェクトのポーズ推定において、芸術の状態を捉えるために組織された一連のパブリックコンペティションの5番目である。
観察対象のベストメソッド(GPose)は、適度な精度向上を達成したが、2022のベストメソッドに比べて43%の実行時間改善を実現した。
論文 参考訳(メタデータ) (2024-03-14T18:37:46Z) - Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Category-Level 6D Object Pose Estimation via Cascaded Relation and
Recurrent Reconstruction Networks [22.627704070200863]
カテゴリーレベルの6Dポーズ推定は、ロボット操作や拡張現実といった多くのシナリオに不可欠である。
カテゴリレベルの6次元ポーズ推定をカスケード関係と再帰的再構成ネットワークを用いて高精度に行う。
我々の手法は最新の最先端のSPDを4.9%、CAMERA25データセットで17.7%で上回る。
論文 参考訳(メタデータ) (2021-08-19T15:46:52Z) - Sparse R-CNN: End-to-End Object Detection with Learnable Proposals [77.9701193170127]
Sparse R-CNNは、画像中の物体検出のための純粋にスパースな方法である。
最終的な予測は、最大でない処理後抑制なしで直接出力される。
われわれの研究が、物体検知器に先立って密集した慣例を再考することを願っている。
論文 参考訳(メタデータ) (2020-11-25T00:01:28Z) - EfficientPose: An efficient, accurate and scalable end-to-end 6D multi
object pose estimation approach [0.0]
6次元オブジェクトのポーズ推定のための新しいアプローチであるEfficientPoseを紹介する。
非常に正確で、効率的で、幅広い計算資源に対してスケーラブルである。
複数のオブジェクトやインスタンスの2Dバウンディングボックスを検出したり、ひとつのショットで完全な6Dポーズを推定することができる。
論文 参考訳(メタデータ) (2020-11-09T10:23:55Z) - Learning Delicate Local Representations for Multi-Person Pose Estimation [77.53144055780423]
我々はResidual Steps Network (RSN) と呼ばれる新しい手法を提案する。
RSNは同じ空間サイズ(イントラレベルの特徴)の機能を効率よく集約し、微妙な局所表現を得る。
当社のアプローチは,COCO Keypoint Challenge 2019で第1位を獲得しました。
論文 参考訳(メタデータ) (2020-03-09T10:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。