論文の概要: Meta-Point Learning and Refining for Category-Agnostic Pose Estimation
- arxiv url: http://arxiv.org/abs/2403.13647v1
- Date: Wed, 20 Mar 2024 14:54:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 16:38:11.036970
- Title: Meta-Point Learning and Refining for Category-Agnostic Pose Estimation
- Title(参考訳): カテゴリーに依存しないポース推定のためのメタポイント学習と精製
- Authors: Junjie Chen, Jiebin Yan, Yuming Fang, Li Niu,
- Abstract要約: Category-Agnostic pose Estimation (CAPE) は、キーポイントを付加したいくつかのサポートイメージが与えられた場合、任意のクラスのキーポイントを予測することを目的としている。
このような潜在的なキーポイント(メタポイント)に基づくCAPEのための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 46.98479393474727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Category-agnostic pose estimation (CAPE) aims to predict keypoints for arbitrary classes given a few support images annotated with keypoints. Existing methods only rely on the features extracted at support keypoints to predict or refine the keypoints on query image, but a few support feature vectors are local and inadequate for CAPE. Considering that human can quickly perceive potential keypoints of arbitrary objects, we propose a novel framework for CAPE based on such potential keypoints (named as meta-points). Specifically, we maintain learnable embeddings to capture inherent information of various keypoints, which interact with image feature maps to produce meta-points without any support. The produced meta-points could serve as meaningful potential keypoints for CAPE. Due to the inevitable gap between inherency and annotation, we finally utilize the identities and details offered by support keypoints to assign and refine meta-points to desired keypoints in query image. In addition, we propose a progressive deformable point decoder and a slacked regression loss for better prediction and supervision. Our novel framework not only reveals the inherency of keypoints but also outperforms existing methods of CAPE. Comprehensive experiments and in-depth studies on large-scale MP-100 dataset demonstrate the effectiveness of our framework.
- Abstract(参考訳): Category-Agnostic pose Estimation (CAPE) は、キーポイントを付加したいくつかのサポートイメージが与えられた場合、任意のクラスのキーポイントを予測することを目的としている。
既存のメソッドは、クエリイメージ上のキーポイントを予測または洗練するために、サポートキーポイントで抽出された機能のみに依存しているが、いくつかのサポート機能ベクトルはローカルでCAPEには不十分である。
任意のオブジェクトの潜在的なキーポイントを素早く認識できることを考慮し、そのような潜在的キーポイント(メタポイント)に基づいたCAPEのための新しいフレームワークを提案する。
具体的には,画像特徴マップと対話してメタポイントを生成する各種キーポイントの固有情報を取得するために,学習可能な埋め込みを維持している。
生成されたメタポイントはCAPEにとって意味のある潜在的なキーポイントとして機能する。
一貫性とアノテーションの間に必然的なギャップがあるため、サポートキーポイントが提供するアイデンティティと詳細を利用して、クエリイメージの所望のキーポイントにメタポイントを割り当て、洗練します。
さらに,より優れた予測と監視を行うために,プログレッシブ・デフォルム・ポイント・デコーダとスラッテッド・レグレッション・ロスを提案する。
我々の新しいフレームワークはキーポイントの不整合を明らかにするだけでなく、既存のCAPEの手法よりも優れています。
大規模MP-100データセットに関する総合実験と詳細な研究により,本フレームワークの有効性が示された。
関連論文リスト
- GMM-IKRS: Gaussian Mixture Models for Interpretable Keypoint Refinement and Scoring [9.322937309882022]
キーポイントには、品質に応じてスコアをランク付けできるスコアが付属する。
学習されたキーポイントは手作りのものよりも優れた特性を示すことが多いが、それらのスコアは容易に解釈できない。
本稿では,どの手法でも抽出したキーポイントを解釈可能なスコアで特徴付けることができるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-30T09:39:59Z) - SCAPE: A Simple and Strong Category-Agnostic Pose Estimator [6.705257644513057]
Category-Agnostic Pose Estimation (CAPE) は、任意のカテゴリのオブジェクトにキーポイントをローカライズすることを目的としている。
本稿では,グローバルな意味情報をキーポイントに注入するグローバルなキーポイント機能パーセプタと,キーポイント間のノード間相関を強化するキーポイントアテンションリファクタという2つのキーモジュールを紹介する。
SCAPEは1ショットと5ショット設定で2.2と1.3PCKで先行技術より優れ、推論速度が速く、モデルキャパシティも軽い。
論文 参考訳(メタデータ) (2024-07-18T13:02:57Z) - Open-Vocabulary Animal Keypoint Detection with Semantic-feature Matching [74.75284453828017]
Open-Vocabulary Keypoint Detection (OVKD)タスクは、任意の種類のキーポイントを特定するためにテキストプロンプトを使用するように設計されている。
セマンティック・フェールマッチング(KDSM)を用いた開語彙キーポイント検出(Open-Vocabulary Keypoint Detection)という新しいフレームワークを開発した。
このフレームワークは視覚と言語モデルを組み合わせて、言語機能とローカルキーポイント視覚機能との相互作用を作成する。
論文 参考訳(メタデータ) (2023-10-08T07:42:41Z) - SC3K: Self-supervised and Coherent 3D Keypoints Estimation from Rotated,
Noisy, and Decimated Point Cloud Data [17.471342278936365]
そこで本研究では,任意のオブジェクトカテゴリからキーポイントを推定する手法を提案する。
我々は,キーポイント推定のための自己指導型トレーニング戦略を提案することで,これらのデシダータを実現する。
提案手法によって推定されるキーポイントと最先端の教師なしアプローチのキーポイントを比較した。
論文 参考訳(メタデータ) (2023-08-10T08:10:01Z) - Few-shot Keypoint Detection with Uncertainty Learning for Unseen Species [28.307200505494126]
本稿では,様々な種類のキーポイントを検出可能な汎用Few-shot Keypoint Detection (FSKD) パイプラインを提案する。
FSKDは主および補助的キーポイント表現学習、類似性学習、キーポイントローカライゼーションを含む。
FSKDが未確認種に対する新規キーポイント検出および(ii)FGVRおよび(iii)Semantic Alignment(SA)下流タスクに対する有効性を示した。
論文 参考訳(メタデータ) (2021-12-12T08:39:47Z) - Accurate Grid Keypoint Learning for Efficient Video Prediction [87.71109421608232]
キーポイントベースのビデオ予測手法は、トレーニングやデプロイメントにおいて、かなりの計算資源を消費することができる。
本稿では,長期的効率的な映像予測のための頑健で説明可能な中間キーポイント表現を目的とした,新しいグリッドキーポイント学習フレームワークを設計する。
提案手法は,計算資源の98%以上を節約しつつ,最先端のビデオ予測手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-28T05:04:30Z) - End-to-End Learning of Keypoint Representations for Continuous Control
from Images [84.8536730437934]
教師なしの事前学習、デコーダ、追加の損失を必要とせずに、エンドツーエンドで効率的なキーポイント表現を学習できることが示される。
提案アーキテクチャは,ソフトアクター・クリティカルエージェントに直接座標を供給するキーポイント抽出器で構成されている。
論文 参考訳(メタデータ) (2021-06-15T09:17:06Z) - Bottom-Up Human Pose Estimation Via Disentangled Keypoint Regression [81.05772887221333]
従来のキーポイント検出およびグループ化フレームワークに劣る密度の高いキーポイント回帰フレームワークについて検討する。
我々は,dekr(disentangled keypoint regression)という,単純かつ効果的な手法を提案する。
提案手法はキーポイント検出法やグループ化法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-06T05:54:46Z) - Keypoint Autoencoders: Learning Interest Points of Semantics [4.551313396927381]
キーポイント検出のための教師なし学習手法であるキーポイントオートエンコーダを提案する。
キーポイントから元のポイントクラウドへの再構成を強制することで、疎いセマンティックキーポイントの選択を奨励する。
選択したキーポイントの特異性を示すために、スパースキーポイントで形状を分類する下流タスクを行う。
論文 参考訳(メタデータ) (2020-08-11T03:43:18Z) - Point-Set Anchors for Object Detection, Instance Segmentation and Pose
Estimation [85.96410825961966]
中心点から抽出された画像の特徴は、離れたキーポイントや境界ボックスの境界を予測するための限られた情報を含んでいると論じる。
推論を容易にするために,より有利な位置に配置された点集合からの回帰を行うことを提案する。
我々は、オブジェクト検出、インスタンス分割、人間のポーズ推定にPoint-Set Anchorsと呼ばれるこのフレームワークを適用した。
論文 参考訳(メタデータ) (2020-07-06T15:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。