論文の概要: BPJDet: Extended Object Representation for Generic Body-Part Joint
Detection
- arxiv url: http://arxiv.org/abs/2304.10765v2
- Date: Sun, 14 Jan 2024 02:52:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 02:56:32.883132
- Title: BPJDet: Extended Object Representation for Generic Body-Part Joint
Detection
- Title(参考訳): BPJDet:ジェネリックボディ部分関節検出のための拡張オブジェクト表現
- Authors: Huayi Zhou, Fei Jiang, Jiaxin Si, Yue Ding, and Hongtao Lu
- Abstract要約: 身体部分の関連性は、意味的内容と幾何学的内容の両方を含む統一表現にきちんと埋め込まれている。
BPJDetは、エラーを起こしやすいポストマッチングに悩まされず、スピードと精度のトレードオフを良好に保ちます。
- 参考スコア(独自算出の注目度): 23.888401348387752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detection of human body and its parts has been intensively studied. However,
most of CNNs-based detectors are trained independently, making it difficult to
associate detected parts with body. In this paper, we focus on the joint
detection of human body and its parts. Specifically, we propose a novel
extended object representation integrating center-offsets of body parts, and
construct an end-to-end generic Body-Part Joint Detector (BPJDet). In this way,
body-part associations are neatly embedded in a unified representation
containing both semantic and geometric contents. Therefore, we can optimize
multi-loss to tackle multi-tasks synergistically. Moreover, this representation
is suitable for anchor-based and anchor-free detectors. BPJDet does not suffer
from error-prone post matching, and keeps a better trade-off between speed and
accuracy. Furthermore, BPJDet can be generalized to detect body-part or
body-parts of either human or quadruped animals. To verify the superiority of
BPJDet, we conduct experiments on datasets of body-part (CityPersons,
CrowdHuman and BodyHands) and body-parts (COCOHumanParts and Animals5C). While
keeping high detection accuracy, BPJDet achieves state-of-the-art association
performance on all datasets. Besides, we show benefits of advanced body-part
association capability by improving performance of two representative
downstream applications: accurate crowd head detection and hand contact
estimation. Project is available in https://hnuzhy.github.io/projects/BPJDet.
- Abstract(参考訳): 人体とその部分の検出は集中的に研究されている。
しかし、cnnsベースの検出器のほとんどは独立して訓練されており、検出された部品を身体と関連付けることが困難である。
本稿では,人体とその部分の関節検出に焦点をあてる。
具体的には,体部品の中心オフセットを統合した拡張オブジェクト表現を提案し,エンドツーエンドの汎用体部品関節検出器(BPJDet)を構築した。
このように、ボディー・パート・アソシエーションは、意味的内容と幾何学的内容の両方を含む統一表現にきちんと埋め込まれている。
したがって、マルチタスクを相乗的に扱うために、マルチロスを最適化することができる。
さらに、この表現はアンカーベースおよびアンカーフリー検出器に適している。
BPJDetは、エラーを起こしやすいポストマッチングに悩まされず、スピードと精度のトレードオフを良好に保ちます。
さらに、BPJDetは、ヒトまたは四肢動物の身体部分または身体部分を検出するために一般化することができる。
BPJDetの優位性を検証するため,体部(CityPersons,CrowdHuman,BodyHands)と体部(COCOHuman Parts,Animals5C)のデータセットについて実験を行った。
BPJDetは高い検出精度を維持しながら、すべてのデータセットで最先端のアソシエーションパフォーマンスを達成する。
また, 高精度群頭検出とハンドコンタクト推定の2つの代表的な下流アプリケーションの性能向上により, 高度な身体関連能力の利点を示す。
プロジェクトはhttps://hnuzhy.github.io/projects/bpjdetで入手できる。
関連論文リスト
- PAFormer: Part Aware Transformer for Person Re-identification [3.8004980982852214]
ポーズ推定に基づくReIDモデルである textbf Part Aware Transformer (PAFormer) を導入する。
提案手法は,有名なReIDベンチマークデータセットにおける既存手法よりも優れている。
論文 参考訳(メタデータ) (2024-08-12T04:46:55Z) - BoPR: Body-aware Part Regressor for Human Shape and Pose Estimation [16.38936587088618]
提案手法であるBoPR(Body-Aware Part Regressor)は,まず注意誘導機構を用いて身体と部分の両方の特徴を抽出する。
次に、これらの機能を使用して、部分単位のレグレッションに余分な部分ボディ依存性をエンコードします。
論文 参考訳(メタデータ) (2023-03-21T08:36:59Z) - Detecting Human-Object Contact in Images [75.35017308643471]
人間は常にオブジェクトに接触し、タスクを動かします。
画像から身体とシーンの接触を検出する堅牢な方法はない。
我々は、画像のための人間と物体の接触のデータセットを新たに構築する。
論文 参考訳(メタデータ) (2023-03-06T18:56:26Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - Body-Part Joint Detection and Association via Extended Object
Representation [27.02391566687007]
本稿では,人体とその対応する部分の関節検出の問題に焦点をあてる。
本稿では,物体の中心位置オフセットやその部分を統合する拡張オブジェクト表現を提案する。
BPJDetのボディ・パート・アソシエーションは、意味情報と幾何学的情報の両方を含む統一表現に埋め込まれる。
論文 参考訳(メタデータ) (2022-12-15T08:19:02Z) - Adjustable Method Based on Body Parts for Improving the Accuracy of 3D
Reconstruction in Visually Important Body Parts from Silhouettes [4.378411442784295]
本研究は,前後のシルエットから立体形状を復元する新しい調整可能なアルゴリズムを提案する。
まず,両視点の身体分割を用いて,対応する身体部分を認識する。
次に,各部位を2次元剛性登録で整列し,ペアマッチングを用いてマッチングする。
論文 参考訳(メタデータ) (2022-11-27T13:25:02Z) - ZoomNAS: Searching for Whole-body Human Pose Estimation in the Wild [97.0025378036642]
本研究では,全身の階層構造を考慮したシングルネットワーク方式ZoomNetを提案する。
また,全身のポーズ推定の精度と効率を両立させるために,ZoomNASと呼ばれるニューラルネットワーク検索フレームワークを提案する。
ZoomNASをトレーニングし,評価するために,最初の大規模2次元人体データセットであるCOCO-WholeBody V1.0を導入する。
論文 参考訳(メタデータ) (2022-08-23T16:33:57Z) - Body Meshes as Points [84.61457490195743]
既存の方法は、主に2段階に基づく1段階の人物のローカライズと、他の段階の個々のボディメッシュ推定である。
BMP(Body Meshes as Points)というシングルステージモデルを提案し、パイプラインを簡素化し、効率性とパフォーマンスを向上する。
論文 参考訳(メタデータ) (2021-05-06T06:58:38Z) - PARE: Part Attention Regressor for 3D Human Body Estimation [80.20146689494992]
Part Attention Regressorはボディパートガイドによる注意マスクの予測を学ぶ。
コードはhttps://pare.is.tue.mpg.de/で研究目的に利用できる。
論文 参考訳(メタデータ) (2021-04-17T12:42:56Z) - Whole-Body Human Pose Estimation in the Wild [88.09875133989155]
COCO-WholeBodyは、全体アノテーションでCOCOデータセットを拡張する。
これは人体全体に手動のアノテーションがある最初のベンチマークである。
ZoomNetという名前のシングルネットワークモデルは、完全な人体の階層構造を考慮するために考案された。
論文 参考訳(メタデータ) (2020-07-23T08:35:26Z) - Attention-based Joint Detection of Object and Semantic Part [4.389917490809522]
我々のモデルは2つのFaster-RCNNモデルに基づいて作成され、それらの特徴を共有して両方の表現を拡張します。
PASCAL-Part 2010データセットの実験では、関節検出は物体検出と部分検出の両方を同時に改善できることが示された。
論文 参考訳(メタデータ) (2020-07-05T18:54:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。