論文の概要: PACE: Pose Annotations in Cluttered Environments
- arxiv url: http://arxiv.org/abs/2312.15130v1
- Date: Sat, 23 Dec 2023 01:38:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 19:35:51.448679
- Title: PACE: Pose Annotations in Cluttered Environments
- Title(参考訳): PACE: クラッタ環境における Pose アノテーション
- Authors: Yang You, Kai Xiong, Zhening Yang, Zhengxiang Huang, Junwei Zhou,
Ruoxi Shi, Zhou Fang, Adam W. Harley, Cewu Lu
- Abstract要約: PACEは、乱雑なシナリオにおけるポーズ推定手法の開発と評価を促進するために設計された大規模なベンチマークである。
PACEには54,945のフレームと、300の動画に257,673のアノテーションがあり、44のカテゴリから576のオブジェクトをカバーし、厳密で明瞭なアイテムが混在している。
我々は、PACEを、私たちが開発したアノテーションツールとともに、公開評価ベンチマークとしてリリースし、この分野のさらなる進歩を刺激する予定です。
- 参考スコア(独自算出の注目度): 54.019143952287365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pose estimation is a crucial task in computer vision, enabling tracking and
manipulating objects in images or videos. While several datasets exist for pose
estimation, there is a lack of large-scale datasets specifically focusing on
cluttered scenes with occlusions. This limitation is a bottleneck in the
development and evaluation of pose estimation methods, particularly toward the
goal of real-world application in environments where occlusions are common.
Addressing this, we introduce PACE (Pose Annotations in Cluttered
Environments), a large-scale benchmark designed to advance the development and
evaluation of pose estimation methods in cluttered scenarios. PACE encompasses
54,945 frames with 257,673 annotations across 300 videos, covering 576 objects
from 44 categories and featuring a mix of rigid and articulated items in
cluttered scenes. To annotate the real-world data efficiently, we developed an
innovative annotation system utilizing a calibrated 3-camera setup. We test
state-of-the-art algorithms in PACE along two tracks: pose estimation, and
object pose tracking, revealing the benchmark's challenges and research
opportunities. We plan to release PACE as a public evaluation benchmark, along
the annotations tools we developed, to stimulate further advancements in the
field. Our code and data is available on https://github.com/qq456cvb/PACE.
- Abstract(参考訳): ポーズ推定はコンピュータビジョンにおいて重要なタスクであり、画像やビデオのオブジェクトの追跡と操作を可能にする。
ポーズ推定用のデータセットはいくつか存在するが、オクルージョンのある散らかったシーンに特化して大規模なデータセットは存在しない。
この制限はポーズ推定手法の開発と評価におけるボトルネックであり、特にオクルージョンが一般的である環境での現実世界の応用の目標に向かっている。
PACE(Pose Annotations in Cluttered Environments)は,乱雑なシナリオにおけるポーズ推定手法の開発と評価を促進するために設計された大規模ベンチマークである。
PACEには54,945のフレームがあり、300の動画に257,673のアノテーションがあり、44のカテゴリから576のオブジェクトをカバーしている。
実世界のデータを効率的にアノテートするために,3カメラのキャリブレーションを用いた革新的なアノテーションシステムを開発した。
我々は2つのトラック(ポーズ推定とオブジェクトポーズ追跡)に沿って最先端アルゴリズムをペースでテストし、ベンチマークの課題と研究機会を明らかにする。
PACEは、私たちが開発したアノテーションツールとともに、公開評価ベンチマークとしてリリースする予定です。
私たちのコードとデータはhttps://github.com/qq456cvb/paceで入手できます。
関連論文リスト
- LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - Object Pose Estimation Annotation Pipeline for Multi-view Monocular
Camera Systems in Industrial Settings [2.249916681499244]
手作業を必要とせずにモノクロ画像の大規模なデータセットのアノテーションにアプローチする。
提案手法は,空間内のカメラをローカライズし,モーションキャプチャーシステムで位置を統一し,線形マッピングを用いて興味ある物体の3次元モデルに実際の6Dポーズ位置を投影する。
論文 参考訳(メタデータ) (2023-10-23T13:21:44Z) - HANDAL: A Dataset of Real-World Manipulable Object Categories with Pose
Annotations, Affordances, and Reconstructions [17.9178233068395]
本稿では,カテゴリレベルのオブジェクトポーズ推定とアベイランス予測のためのHANDALデータセットを提案する。
このデータセットは、17のカテゴリで212の現実世界のオブジェクトの2.2kビデオから308kの注釈付き画像フレームで構成されている。
6-DoFカテゴリレベルのポーズ+スケール推定と関連するタスクに対するデータセットの有用性について概説する。
論文 参考訳(メタデータ) (2023-08-02T23:59:59Z) - PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - Pose for Everything: Towards Category-Agnostic Pose Estimation [93.07415325374761]
Category-Agnostic Pose Estimation (CAPE) は、キーポイント定義を持つ少数のサンプルのみを与えられた任意の種類のオブジェクトのポーズを検出することができるポーズ推定モデルを作成することを目的としている。
異なるキーポイント間のインタラクションと、サポートとクエリイメージの関係をキャプチャするために、トランスフォーマーベースのキーポイントインタラクションモジュール(KIM)を提案する。
また、20K以上のインスタンスを含む100のオブジェクトカテゴリの2次元ポーズデータセットであるMP-100データセットを導入し、CAPEアルゴリズムの開発に適している。
論文 参考訳(メタデータ) (2022-07-21T09:40:54Z) - ZebraPose: Coarse to Fine Surface Encoding for 6DoF Object Pose
Estimation [76.31125154523056]
物体表面を高密度に表現できる離散ディスクリプタを提案する。
また,微粒化対応予測が可能な微粒化学習戦略を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:24Z) - End-to-end learning of keypoint detection and matching for relative pose
estimation [1.8352113484137624]
2つの画像間の相対的なポーズを推定する新しい手法を提案する。
キーポイント検出,説明抽出,マッチング,ロバストなポーズ推定を共同で学習する。
本研究では,既知のポーズを持つ画像データベース内でのクエリ画像の視覚的局在化の手法を示す。
論文 参考訳(メタデータ) (2021-04-02T15:16:17Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - Continuous close-range 3D object pose estimation [1.4502611532302039]
視覚に基づく3Dポーズ推定は、固定位置に配置されない可能性のあるオブジェクトを正確に扱う必要がある。
本稿では,勾配近似粒子フィルタを用いた3次元ポーズ推定手法を提案する。
これにより、タスク実行中にこの手法をオンラインに適用して、貴重なサイクル時間を節約することができる。
論文 参考訳(メタデータ) (2020-10-02T07:48:17Z) - Benchmarking Unsupervised Object Representations for Video Sequences [111.81492107649889]
ViMON, OP3, TBA, SCALORの4つのオブジェクト中心アプローチの知覚能力を比較した。
この結果から,制約のない潜在表現を持つアーキテクチャは,オブジェクト検出やセグメンテーション,トラッキングといった観点から,より強力な表現を学習できる可能性が示唆された。
我々のベンチマークは、より堅牢なオブジェクト中心のビデオ表現を学習するための実りあるガイダンスを提供するかもしれない。
論文 参考訳(メタデータ) (2020-06-12T09:37:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。