論文の概要: BOP Challenge 2024 on Model-Based and Model-Free 6D Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2504.02812v4
- Date: Wed, 23 Apr 2025 11:37:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.380835
- Title: BOP Challenge 2024 on Model-Based and Model-Free 6D Object Pose Estimation
- Title(参考訳): BOP Challenge 2024 on Model-based and Model-free 6D Object Pose Estimation
- Authors: Van Nguyen Nguyen, Stephen Tyree, Andrew Guo, Mederic Fourmy, Anas Gouda, Taeyeop Lee, Sungphill Moon, Hyeontae Son, Lukas Ranftl, Jonathan Tremblay, Eric Brachmann, Bertram Drost, Vincent Lepetit, Carsten Rother, Stan Birchfield, Jiri Matas, Yann Labbe, Martin Sundermeyer, Tomas Hodan,
- Abstract要約: 一連のパブリックコンペティションの第6回は、6Dオブジェクトでアートの状態をキャプチャするために組織された。
2024年、我々は3Dオブジェクトモデルが利用できず、提供された参照ビデオからのみオブジェクトをオンボードする必要がある新しいモデルフリータスクを導入した。
我々は、テスト画像で見える物体の同一性が入力として提供されない、より実用的な6Dオブジェクト検出タスクを定義した。
- 参考スコア(独自算出の注目度): 55.13521733366838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the evaluation methodology, datasets and results of the BOP Challenge 2024, the 6th in a series of public competitions organized to capture the state of the art in 6D object pose estimation and related tasks. In 2024, our goal was to transition BOP from lab-like setups to real-world scenarios. First, we introduced new model-free tasks, where no 3D object models are available and methods need to onboard objects just from provided reference videos. Second, we defined a new, more practical 6D object detection task where identities of objects visible in a test image are not provided as input. Third, we introduced new BOP-H3 datasets recorded with high-resolution sensors and AR/VR headsets, closely resembling real-world scenarios. BOP-H3 include 3D models and onboarding videos to support both model-based and model-free tasks. Participants competed on seven challenge tracks. Notably, the best 2024 method for model-based 6D localization of unseen objects (FreeZeV2.1) achieves 22% higher accuracy on BOP-Classic-Core than the best 2023 method (GenFlow), and is only 4% behind the best 2023 method for seen objects (GPose2023) although being significantly slower (24.9 vs 2.7s per image). A more practical 2024 method for this task is Co-op which takes only 0.8s per image and is 13% more accurate than GenFlow. Methods have similar rankings on 6D detection as on 6D localization but higher run time. On model-based 2D detection of unseen objects, the best 2024 method (MUSE) achieves 21--29% relative improvement compared to the best 2023 method (CNOS). However, the 2D detection accuracy for unseen objects is still -35% behind the accuracy for seen objects (GDet2023), and the 2D detection stage is consequently the main bottleneck of existing pipelines for 6D localization/detection of unseen objects. The online evaluation system stays open and is available at http://bop.felk.cvut.cz/
- Abstract(参考訳): BOPチャレンジ2024(BOP Challenge 2024)の評価手法,データセット,結果について述べる。
2024年、私たちの目標は、BOPをラボのようなセットアップから現実のシナリオに移行することです。
まず、3Dオブジェクトモデルが利用できず、提供された参照ビデオからのみオブジェクトをオンボードする必要がある新しいモデルフリータスクを紹介した。
第2に、テスト画像に写っている物体の身元が入力として提供されない、より実用的な6Dオブジェクト検出タスクを定義した。
第3に、高解像度センサーとAR/VRヘッドセットで記録された新しいBOP-H3データセットを導入しました。
BOP-H3には3Dモデルと、モデルベースとモデルフリーの両方をサポートするビデオが同梱されている。
参加者は7つの挑戦トラックで競った。
特に、未確認物体のモデルベースの6Dローカライズ法(FreeZeV2.1)では、2023法(GenFlow)よりもBOP-Classic-Coreの方が22%高い精度を実現し(GPose2023)、画像当たり24.9対2.7秒)、観察対象に対する2023法(GPose2023)では4%しか遅れない(画像あたり24.9対2.7秒)。
このタスクのより実用的な2024の手法はCo-opであり、画像あたり0.8秒しかかからず、GenFlowよりも13%精度が高い。
メソッドは6Dのローカライゼーションと同様に6D検出に類似しているが、実行時間も高い。
モデルに基づく未知物体の2次元検出では、2024法(MUSE)は2023法(CNOS)と比較して21~29%改善した。
しかし、未確認物体の2D検出精度は、まだ観測対象の精度より35%遅れている(GDet2023)。
オンライン評価システムはオープンであり、http://bop.felk.cvut.cz/で利用可能である。
関連論文リスト
- Any6D: Model-free 6D Pose Estimation of Novel Objects [76.30057578269668]
我々は,6次元オブジェクトのポーズ推定のためのモデルフリーフレームワークであるAny6Dを紹介する。
新たなシーンでは、未知の物体の6Dポーズと大きさを推定するために、1枚のRGB-Dアンカー画像しか必要としない。
提案手法を5つの挑戦的データセットで評価する。
論文 参考訳(メタデータ) (2025-03-24T13:46:21Z) - BOP Challenge 2023 on Detection, Segmentation and Pose Estimation of Seen and Unseen Rigid Objects [54.90773237124648]
BOPチャレンジ2023(BOP Challenge 2023)は、モデルベースの6Dオブジェクトのポーズ推定において、芸術の状態を捉えるために組織された一連のパブリックコンペティションの5番目である。
観察対象のベストメソッド(GPose)は、適度な精度向上を達成したが、2022のベストメソッドに比べて43%の実行時間改善を実現した。
論文 参考訳(メタデータ) (2024-03-14T18:37:46Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - OSOP: A Multi-Stage One Shot Object Pose Estimation Framework [35.89334617258322]
対象物検出のための新しいワンショット手法と,対象物に対する訓練を必要としない6DoFポーズ推定を提案する。
テスト時には、ターゲット画像とテクスチャ化された3Dクエリモデルを入力する。
The method on LineMOD, Occlusion, Homebrewed, YCB-V and TLESS datasets。
論文 参考訳(メタデータ) (2022-03-29T13:12:00Z) - Weakly Supervised Learning of Keypoints for 6D Object Pose Estimation [73.40404343241782]
2次元キーポイント検出に基づく弱教師付き6次元オブジェクトポーズ推定手法を提案する。
提案手法は,最先端の完全教師付きアプローチと同等の性能を実現する。
論文 参考訳(メタデータ) (2022-03-07T16:23:47Z) - EfficientPose: An efficient, accurate and scalable end-to-end 6D multi
object pose estimation approach [0.0]
6次元オブジェクトのポーズ推定のための新しいアプローチであるEfficientPoseを紹介する。
非常に正確で、効率的で、幅広い計算資源に対してスケーラブルである。
複数のオブジェクトやインスタンスの2Dバウンディングボックスを検出したり、ひとつのショットで完全な6Dポーズを推定することができる。
論文 参考訳(メタデータ) (2020-11-09T10:23:55Z) - Synthetic Training for Monocular Human Mesh Recovery [100.38109761268639]
本稿では,RGB画像と大規模に異なる複数の身体部位の3次元メッシュを推定することを目的とする。
主な課題は、2D画像のすべての身体部分の3Dアノテーションを完備するトレーニングデータがないことである。
本稿では,D2S(Deep-to-scale)投影法を提案する。
論文 参考訳(メタデータ) (2020-10-27T03:31:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。