論文の概要: BOP Challenge 2024 on Model-Based and Model-Free 6D Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2504.02812v1
- Date: Thu, 03 Apr 2025 17:55:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:56:14.825549
- Title: BOP Challenge 2024 on Model-Based and Model-Free 6D Object Pose Estimation
- Title(参考訳): BOP Challenge 2024 on Model-based and Model-free 6D Object Pose Estimation
- Authors: Van Nguyen Nguyen, Stephen Tyree, Andrew Guo, Mederic Fourmy, Anas Gouda, Taeyeop Lee, Sungphill Moon, Hyeontae Son, Lukas Ranftl, Jonathan Tremblay, Eric Brachmann, Bertram Drost, Vincent Lepetit, Carsten Rother, Stan Birchfield, Jiri Matas, Yann Labbe, Martin Sundermeyer, Tomas Hodan,
- Abstract要約: 一連のパブリックコンペティションの第6回は、6Dオブジェクトでアートの状態をキャプチャするために組織された。
2024年、我々は3Dオブジェクトモデルが利用できず、提供された参照ビデオからのみオブジェクトをオンボードする必要がある新しいモデルフリータスクを導入した。
我々は、テスト画像で見える物体の同一性が入力として提供されない、より実用的な6Dオブジェクト検出タスクを定義した。
- 参考スコア(独自算出の注目度): 55.13521733366838
- License:
- Abstract: We present the evaluation methodology, datasets and results of the BOP Challenge 2024, the sixth in a series of public competitions organized to capture the state of the art in 6D object pose estimation and related tasks. In 2024, our goal was to transition BOP from lab-like setups to real-world scenarios. First, we introduced new model-free tasks, where no 3D object models are available and methods need to onboard objects just from provided reference videos. Second, we defined a new, more practical 6D object detection task where identities of objects visible in a test image are not provided as input. Third, we introduced new BOP-H3 datasets recorded with high-resolution sensors and AR/VR headsets, closely resembling real-world scenarios. BOP-H3 include 3D models and onboarding videos to support both model-based and model-free tasks. Participants competed on seven challenge tracks, each defined by a task, object onboarding setup, and dataset group. Notably, the best 2024 method for model-based 6D localization of unseen objects (FreeZeV2.1) achieves 22% higher accuracy on BOP-Classic-Core than the best 2023 method (GenFlow), and is only 4% behind the best 2023 method for seen objects (GPose2023) although being significantly slower (24.9 vs 2.7s per image). A more practical 2024 method for this task is Co-op which takes only 0.8s per image and is 25X faster and 13% more accurate than GenFlow. Methods have a similar ranking on 6D detection as on 6D localization but higher run time. On model-based 2D detection of unseen objects, the best 2024 method (MUSE) achieves 21% relative improvement compared to the best 2023 method (CNOS). However, the 2D detection accuracy for unseen objects is still noticealy (-53%) behind the accuracy for seen objects (GDet2023). The online evaluation system stays open and is available at http://bop.felk.cvut.cz/
- Abstract(参考訳): BOPチャレンジ2024は、6Dオブジェクトにおける最先端のポーズ推定と関連するタスクを捉えるために組織された一連の公開コンペティションの6番目である。
2024年、私たちの目標は、BOPをラボのようなセットアップから現実のシナリオに移行することです。
まず、3Dオブジェクトモデルが利用できず、提供された参照ビデオからのみオブジェクトをオンボードする必要がある新しいモデルフリータスクを紹介した。
第2に、テスト画像に写っている物体の身元が入力として提供されない、より実用的な6Dオブジェクト検出タスクを定義した。
第3に、高解像度センサーとAR/VRヘッドセットで記録された新しいBOP-H3データセットを導入しました。
BOP-H3には3Dモデルと、モデルベースとモデルフリーの両方をサポートするビデオが同梱されている。
参加者は7つのチャレンジトラックで競い、それぞれがタスク、オブジェクトのオンボーディング設定、データセットグループによって定義される。
特に、未確認物体のモデルベースの6Dローカライズ法(FreeZeV2.1)では、2023法(GenFlow)よりもBOP-Classic-Coreの方が22%高い精度を実現し(GPose2023)、画像当たり24.9対2.7秒)、観察対象に対する2023法(GPose2023)では4%しか遅れない(画像あたり24.9対2.7秒)。
このタスクのより実用的な2024の手法はCo-opであり、画像あたり0.8秒しか必要とせず、GenFlowよりも25倍高速で13%精度がある。
方法は6Dローカライゼーションと同様に6D検出に類似しているが、実行時間も高い。
モデルに基づく未知物体の2次元検出では、2024法(MUSE)が2023法(CNOS)と比較して21%改善されている。
しかし、未確認物体の2次元検出精度は、まだ目に見える物体の精度より53%遅れている(GDet2023)。
オンライン評価システムはオープンであり、http://bop.felk.cvut.cz/で利用可能である。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - BOP Challenge 2023 on Detection, Segmentation and Pose Estimation of Seen and Unseen Rigid Objects [54.90773237124648]
BOPチャレンジ2023(BOP Challenge 2023)は、モデルベースの6Dオブジェクトのポーズ推定において、芸術の状態を捉えるために組織された一連のパブリックコンペティションの5番目である。
観察対象のベストメソッド(GPose)は、適度な精度向上を達成したが、2022のベストメソッドに比べて43%の実行時間改善を実現した。
論文 参考訳(メタデータ) (2024-03-14T18:37:46Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - OSOP: A Multi-Stage One Shot Object Pose Estimation Framework [35.89334617258322]
対象物検出のための新しいワンショット手法と,対象物に対する訓練を必要としない6DoFポーズ推定を提案する。
テスト時には、ターゲット画像とテクスチャ化された3Dクエリモデルを入力する。
The method on LineMOD, Occlusion, Homebrewed, YCB-V and TLESS datasets。
論文 参考訳(メタデータ) (2022-03-29T13:12:00Z) - Weakly Supervised Learning of Keypoints for 6D Object Pose Estimation [73.40404343241782]
2次元キーポイント検出に基づく弱教師付き6次元オブジェクトポーズ推定手法を提案する。
提案手法は,最先端の完全教師付きアプローチと同等の性能を実現する。
論文 参考訳(メタデータ) (2022-03-07T16:23:47Z) - EfficientPose: An efficient, accurate and scalable end-to-end 6D multi
object pose estimation approach [0.0]
6次元オブジェクトのポーズ推定のための新しいアプローチであるEfficientPoseを紹介する。
非常に正確で、効率的で、幅広い計算資源に対してスケーラブルである。
複数のオブジェクトやインスタンスの2Dバウンディングボックスを検出したり、ひとつのショットで完全な6Dポーズを推定することができる。
論文 参考訳(メタデータ) (2020-11-09T10:23:55Z) - Single Shot 6D Object Pose Estimation [11.37625512264302]
深度画像に基づく剛体物体の6次元オブジェクトポーズ推定のための新しい単一ショット手法を提案する。
完全な畳み込みニューラルネットワークを用い、3次元入力データを空間的に離散化し、ポーズ推定を回帰タスクとみなす。
GPU上の65fpsでは、Object Pose Network(OP-Net)は非常に高速で、エンドツーエンドに最適化され、画像内の複数のオブジェクトの6Dポーズを同時に推定する。
論文 参考訳(メタデータ) (2020-04-27T11:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。