論文の概要: DynOPETs: A Versatile Benchmark for Dynamic Object Pose Estimation and Tracking in Moving Camera Scenarios
- arxiv url: http://arxiv.org/abs/2503.19625v1
- Date: Tue, 25 Mar 2025 13:13:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:55:14.585276
- Title: DynOPETs: A Versatile Benchmark for Dynamic Object Pose Estimation and Tracking in Moving Camera Scenarios
- Title(参考訳): DynOPETs: 移動カメラシナリオにおける動的物体位置推定と追跡のためのヴァーサタイルベンチマーク
- Authors: Xiangting Meng, Jiaqi Yang, Mingshu Chen, Chenxin Yan, Yujiao Shi, Wenchao Ding, Laurent Kneip,
- Abstract要約: 本稿では,制約のない環境下でのオブジェクトポーズ推定と追跡のための新しいデータセットDynOPETを提案する。
提案手法は,ポーズ推定とポーズ追跡を革新的に統合し,擬似ラベルを生成する。
得られたデータセットは、動くカメラから観察される動的オブジェクトの正確なポーズアノテーションを提供する。
- 参考スコア(独自算出の注目度): 20.835782699441797
- License:
- Abstract: In the realm of object pose estimation, scenarios involving both dynamic objects and moving cameras are prevalent. However, the scarcity of corresponding real-world datasets significantly hinders the development and evaluation of robust pose estimation models. This is largely attributed to the inherent challenges in accurately annotating object poses in dynamic scenes captured by moving cameras. To bridge this gap, this paper presents a novel dataset DynOPETs and a dedicated data acquisition and annotation pipeline tailored for object pose estimation and tracking in such unconstrained environments. Our efficient annotation method innovatively integrates pose estimation and pose tracking techniques to generate pseudo-labels, which are subsequently refined through pose graph optimization. The resulting dataset offers accurate pose annotations for dynamic objects observed from moving cameras. To validate the effectiveness and value of our dataset, we perform comprehensive evaluations using 18 state-of-the-art methods, demonstrating its potential to accelerate research in this challenging domain. The dataset will be made publicly available to facilitate further exploration and advancement in the field.
- Abstract(参考訳): オブジェクトポーズ推定の領域では、動的オブジェクトと移動カメラの両方を含むシナリオが一般的である。
しかし、実世界のデータセットの不足は、ロバストポーズ推定モデルの開発と評価を著しく妨げている。
これは、動いたカメラが捉えたダイナミックなシーンのオブジェクトポーズを正確にアノテートする際の、固有の課題に起因する。
このギャップを埋めるために、制約のない環境でのオブジェクトのポーズ推定と追跡に適した、新しいデータセットDynOPETと専用のデータ取得およびアノテーションパイプラインを提案する。
我々の効率的なアノテーション手法は、ポーズ推定とポーズ追跡技術を革新的に統合して擬似ラベルを生成し、その後、ポーズグラフ最適化によって洗練する。
得られたデータセットは、動くカメラから観察される動的オブジェクトの正確なポーズアノテーションを提供する。
データセットの有効性と価値を検証するため、我々は18の最先端手法を用いて包括的な評価を行い、この挑戦的な領域の研究を加速する可能性を実証した。
データセットは公開され、この分野のさらなる探索と進展を容易にする。
関連論文リスト
- Targeted Hard Sample Synthesis Based on Estimated Pose and Occlusion Error for Improved Object Pose Estimation [9.637714330461037]
モデルに依存しない新しいハードサンプル合成法を提案する。
本研究では,最先端ポーズ推定モデルを用いて,複数のROBIデータセットオブジェクトに対して最大20%の精度で検出率を向上することを示す。
論文 参考訳(メタデータ) (2024-12-05T16:00:55Z) - OmniPose6D: Towards Short-Term Object Pose Tracking in Dynamic Scenes from Monocular RGB [40.62577054196799]
実環境の多様性を反映した大規模合成データセットOmniPose6Dを提案する。
本稿では,ポーズ追跡アルゴリズムの総合的な比較のためのベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-09T09:01:40Z) - Line-based 6-DoF Object Pose Estimation and Tracking With an Event Camera [19.204896246140155]
イベントカメラは、高いダイナミックレンジ、低レイテンシ、動きのぼけに対するレジリエンスといった顕著な特性を持っている。
イベントカメラを用いた平面オブジェクトや非平面オブジェクトに対するラインベースロバストポーズ推定と追跡手法を提案する。
論文 参考訳(メタデータ) (2024-08-06T14:36:43Z) - Deep Learning-Based Object Pose Estimation: A Comprehensive Survey [73.74933379151419]
ディープラーニングに基づくオブジェクトポーズ推定の最近の進歩について論じる。
また、複数の入力データモダリティ、出力ポーズの自由度、オブジェクト特性、下流タスクについても調査した。
論文 参考訳(メタデータ) (2024-05-13T14:44:22Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Objects Matter: Learning Object Relation Graph for Robust Camera
Relocalization [2.9005223064604078]
本稿では,物体間の深い関係を抽出し,特徴の識別性を高めることを提案する。
特に、画像中のオブジェクトを抽出し、オブジェクトの意味的関係と相対的な空間的手がかりを組み込むディープオブジェクト関係グラフ(ORG)を構築する。
論文 参考訳(メタデータ) (2022-05-26T11:37:11Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。