論文の概要: Pose for Everything: Towards Category-Agnostic Pose Estimation
- arxiv url: http://arxiv.org/abs/2207.10387v1
- Date: Thu, 21 Jul 2022 09:40:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 13:08:45.925607
- Title: Pose for Everything: Towards Category-Agnostic Pose Estimation
- Title(参考訳): あらゆるものへのポーズ:カテゴリー非依存なポーズ推定に向けて
- Authors: Lumin Xu, Sheng Jin, Wang Zeng, Wentao Liu, Chen Qian, Wanli Ouyang,
Ping Luo, Xiaogang Wang
- Abstract要約: Category-Agnostic Pose Estimation (CAPE) は、キーポイント定義を持つ少数のサンプルのみを与えられた任意の種類のオブジェクトのポーズを検出することができるポーズ推定モデルを作成することを目的としている。
異なるキーポイント間のインタラクションと、サポートとクエリイメージの関係をキャプチャするために、トランスフォーマーベースのキーポイントインタラクションモジュール(KIM)を提案する。
また、20K以上のインスタンスを含む100のオブジェクトカテゴリの2次元ポーズデータセットであるMP-100データセットを導入し、CAPEアルゴリズムの開発に適している。
- 参考スコア(独自算出の注目度): 93.07415325374761
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing works on 2D pose estimation mainly focus on a certain category, e.g.
human, animal, and vehicle. However, there are lots of application scenarios
that require detecting the poses/keypoints of the unseen class of objects. In
this paper, we introduce the task of Category-Agnostic Pose Estimation (CAPE),
which aims to create a pose estimation model capable of detecting the pose of
any class of object given only a few samples with keypoint definition. To
achieve this goal, we formulate the pose estimation problem as a keypoint
matching problem and design a novel CAPE framework, termed POse Matching
Network (POMNet). A transformer-based Keypoint Interaction Module (KIM) is
proposed to capture both the interactions among different keypoints and the
relationship between the support and query images. We also introduce
Multi-category Pose (MP-100) dataset, which is a 2D pose dataset of 100 object
categories containing over 20K instances and is well-designed for developing
CAPE algorithms. Experiments show that our method outperforms other baseline
approaches by a large margin. Codes and data are available at
https://github.com/luminxu/Pose-for-Everything.
- Abstract(参考訳): 既存の2Dポーズ推定の研究は、主に人間、動物、車両などの特定のカテゴリーに焦点を当てている。
しかし、見当たらないオブジェクトクラスのポーズ/キーポイントを検出する必要のあるアプリケーションシナリオはたくさんあります。
本稿では,キーポイント定義を持つ少数のサンプルのみを与えられた任意の種類のオブジェクトのポーズを検出可能なポーズ推定モデルを作成することを目的とした,カテゴリー-非依存ポス推定(CAPE)のタスクを紹介する。
この目的を達成するために、ポーズ推定問題をキーポイントマッチング問題として定式化し、ポスマッチングネットワーク(POMNet)と呼ばれる新しいCAPEフレームワークを設計する。
異なるキーポイント間のインタラクションと、サポートと問い合わせ画像の関係をキャプチャするために、トランスフォーマティブベースのキーポイントインタラクションモジュール(kim)が提案されている。
また、20K以上のインスタンスを含む100のオブジェクトカテゴリの2次元ポーズデータセットであるMP-100データセットを導入し、CAPEアルゴリズムの開発に適している。
実験により,本手法が他のベースラインアプローチよりも高いマージンを示した。
コードとデータはhttps://github.com/luminxu/pose-for-everythingで入手できる。
関連論文リスト
- CVAM-Pose: Conditional Variational Autoencoder for Multi-Object Monocular Pose Estimation [3.5379836919221566]
剛体物体のポーズを推定することはコンピュータビジョンの基本的な問題の一つである。
本稿では,多目的単分子ポーズ推定のための新しいアプローチCVAM-Poseを提案する。
論文 参考訳(メタデータ) (2024-10-11T17:26:27Z) - SRPose: Two-view Relative Pose Estimation with Sparse Keypoints [51.49105161103385]
SRPoseは、カメラ・トゥ・ワールドおよびオブジェクト・トゥ・カメラシナリオにおける2ビュー相対ポーズ推定のためのスパースキーポイントベースのフレームワークである。
精度と速度の点で最先端の手法と比較して、競争力や優れた性能を達成する。
さまざまな画像サイズやカメラ固有の機能に対して堅牢であり、低コンピューティングリソースでデプロイすることができる。
論文 参考訳(メタデータ) (2024-07-11T05:46:35Z) - FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - A Graph-Based Approach for Category-Agnostic Pose Estimation [12.308036453869033]
任意のオブジェクトカテゴリに対するキーポイントのローカライズを可能にするために、カテゴリに依存しないポーズ推定(CAPE)を導入した。
本稿では、入力ポーズデータをグラフとして扱うことにより、キーポイントを独立したエンティティとして扱う従来のCAPE技術との大きな違いを示す。
提案手法は1ショット設定で0.98%向上し,CAPEの新たな最先端を実現する。
論文 参考訳(メタデータ) (2023-11-29T18:44:12Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - Rethinking Keypoint Representations: Modeling Keypoints and Poses as
Objects for Multi-Person Human Pose Estimation [79.78017059539526]
本研究では,個々のキーポイントと空間的関連キーポイント(ポーズ)の集合を,密集した単一ステージアンカーベース検出フレームワーク内のオブジェクトとしてモデル化する,新しいヒートマップフリーなキーポイント推定手法を提案する。
実験では, KAPAOは従来手法よりもはるかに高速かつ高精度であり, 熱マップ後処理に悩まされていた。
我々の大規模モデルであるKAPAO-Lは、テスト時間拡張なしでMicrosoft COCO Keypoints検証セット上で70.6のAPを達成する。
論文 参考訳(メタデータ) (2021-11-16T15:36:44Z) - 6D Object Pose Estimation using Keypoints and Part Affinity Fields [24.126513851779936]
RGB画像からの6Dオブジェクトのポーズ推定のタスクは、自律型サービスロボットが現実世界と対話できるための重要な要件である。
既知物体の6自由度変換と配向を推定するための2段階パイプラインを提案する。
論文 参考訳(メタデータ) (2021-07-05T14:41:19Z) - Pose-based Modular Network for Human-Object Interaction Detection [5.6397911482914385]
提案するPose-based Modular Network (PMN) は,絶対的なポーズ特徴と相対的な空間的ポーズ特徴を探索し,HOI検出を改善する。
提案手法を評価するため,VS-GATと呼ばれる最新技術モデルと組み合わせ,2つの公開ベンチマークにおいて大幅な改善が得られた。
論文 参考訳(メタデータ) (2020-08-05T10:56:09Z) - Point-Set Anchors for Object Detection, Instance Segmentation and Pose
Estimation [85.96410825961966]
中心点から抽出された画像の特徴は、離れたキーポイントや境界ボックスの境界を予測するための限られた情報を含んでいると論じる。
推論を容易にするために,より有利な位置に配置された点集合からの回帰を行うことを提案する。
我々は、オブジェクト検出、インスタンス分割、人間のポーズ推定にPoint-Set Anchorsと呼ばれるこのフレームワークを適用した。
論文 参考訳(メタデータ) (2020-07-06T15:59:56Z) - Self-supervised Keypoint Correspondences for Multi-Person Pose
Estimation and Tracking in Videos [32.43899916477434]
本稿では,映像中の人物を関連付けるために,キーポイント対応に依存するアプローチを提案する。
ビデオデータ上でキーポイント対応を推定するためにネットワークをトレーニングする代わりに、人間のポーズ推定のために大規模な画像データセットでトレーニングする。
提案手法は,PosTrack$2017およびPoseTrack$2018のデータセット上で,複数フレームのポーズ推定と複数人物のポーズ追跡の最先端結果を実現する。
論文 参考訳(メタデータ) (2020-04-27T09:02:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。