論文の概要: BPJDet: Extended Object Representation for Generic Body-Part Joint
Detection
- arxiv url: http://arxiv.org/abs/2304.10765v1
- Date: Fri, 21 Apr 2023 06:23:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 15:38:43.615398
- Title: BPJDet: Extended Object Representation for Generic Body-Part Joint
Detection
- Title(参考訳): BPJDet:ジェネリックボディ部分関節検出のための拡張オブジェクト表現
- Authors: Huayi Zhou, Fei Jiang, Jiaxin Si, Yue Ding, and Hongtao Lu
- Abstract要約: 物体の中心オフセットを統合した新しい拡張オブジェクト表現を提案し、高密度な1段汎用体-部分関節検出器(BPJDet)を構築した。
BPJDetは、エラーを起こしやすいポストマッチングに悩まされず、スピードと精度のトレードオフを良好に保ちます。
2つの下流アプリケーションの性能を向上させることにより、高度なボディパートアソシエーション能力の利点を示す。
- 参考スコア(独自算出の注目度): 23.024315369418332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detection of human body and its parts (e.g., head or hands) has been
intensively studied. However, most of these CNNs-based detectors are trained
independently, making it difficult to associate detected parts with body. In
this paper, we focus on the joint detection of human body and its corresponding
parts. Specifically, we propose a novel extended object representation
integrating center-offsets of body parts, and construct a dense one-stage
generic Body-Part Joint Detector (BPJDet). In this way, body-part associations
are neatly embedded in a unified object representation containing both semantic
and geometric contents. Therefore, we can perform multi-loss optimizations to
tackle multi-tasks synergistically. BPJDet does not suffer from error-prone
post matching, and keeps a better trade-off between speed and accuracy.
Furthermore, BPJDet can be generalized to detect any one or more body parts. To
verify the superiority of BPJDet, we conduct experiments on three body-part
datasets (CityPersons, CrowdHuman and BodyHands) and one body-parts dataset
COCOHumanParts. While keeping high detection accuracy, BPJDet achieves
state-of-the-art association performance on all datasets comparing with its
counterparts. Besides, we show benefits of advanced body-part association
capability by improving performance of two representative downstream
applications: accurate crowd head detection and hand contact estimation. Code
is released in https://github.com/hnuzhy/BPJDet.
- Abstract(参考訳): 人体とその部分(例えば頭や手)の検出は集中的に研究されている。
しかし、これらのcnnsベースの検出器のほとんどは独立して訓練されており、検出された部品を身体と関連付けることが困難である。
本稿では,人体とその対応する部分の関節検出に焦点をあてる。
具体的には,身体部位の中心オフセットを統合する新しい拡張オブジェクト表現を提案し,高密度1段汎用体部関節検出器(bpjdet)を構築する。
このように、ボディーパートの関連は、意味的および幾何学的内容の両方を含む統一オブジェクト表現に巧みに埋め込まれる。
したがって、マルチタスクを相乗的に扱うためにマルチロス最適化を行うことができる。
BPJDetは、エラーを起こしやすいポストマッチングに悩まされず、スピードと精度のトレードオフを良好に保ちます。
さらに、BPJDetは1つ以上の身体部分を検出するために一般化することができる。
BPJDetの優位性を検証するため,3つのボディパーツデータセット(CityPersons,CrowdHuman,BodyHands)と1つのボディパーツデータセットCOCOHumanPartsについて実験を行った。
BPJDetは高い検出精度を維持しながら、すべてのデータセットで最先端のアソシエーションパフォーマンスを達成する。
また, 高精度群頭検出とハンドコンタクト推定の2つの代表的な下流アプリケーションの性能向上により, 高度な身体関連能力の利点を示す。
コードはhttps://github.com/hnuzhy/bpjdetでリリースされる。
関連論文リスト
- PAFormer: Part Aware Transformer for Person Re-identification [3.8004980982852214]
ポーズ推定に基づくReIDモデルである textbf Part Aware Transformer (PAFormer) を導入する。
提案手法は,有名なReIDベンチマークデータセットにおける既存手法よりも優れている。
論文 参考訳(メタデータ) (2024-08-12T04:46:55Z) - BoPR: Body-aware Part Regressor for Human Shape and Pose Estimation [16.38936587088618]
提案手法であるBoPR(Body-Aware Part Regressor)は,まず注意誘導機構を用いて身体と部分の両方の特徴を抽出する。
次に、これらの機能を使用して、部分単位のレグレッションに余分な部分ボディ依存性をエンコードします。
論文 参考訳(メタデータ) (2023-03-21T08:36:59Z) - Detecting Human-Object Contact in Images [75.35017308643471]
人間は常にオブジェクトに接触し、タスクを動かします。
画像から身体とシーンの接触を検出する堅牢な方法はない。
我々は、画像のための人間と物体の接触のデータセットを新たに構築する。
論文 参考訳(メタデータ) (2023-03-06T18:56:26Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - Body-Part Joint Detection and Association via Extended Object
Representation [27.02391566687007]
本稿では,人体とその対応する部分の関節検出の問題に焦点をあてる。
本稿では,物体の中心位置オフセットやその部分を統合する拡張オブジェクト表現を提案する。
BPJDetのボディ・パート・アソシエーションは、意味情報と幾何学的情報の両方を含む統一表現に埋め込まれる。
論文 参考訳(メタデータ) (2022-12-15T08:19:02Z) - Adjustable Method Based on Body Parts for Improving the Accuracy of 3D
Reconstruction in Visually Important Body Parts from Silhouettes [4.378411442784295]
本研究は,前後のシルエットから立体形状を復元する新しい調整可能なアルゴリズムを提案する。
まず,両視点の身体分割を用いて,対応する身体部分を認識する。
次に,各部位を2次元剛性登録で整列し,ペアマッチングを用いてマッチングする。
論文 参考訳(メタデータ) (2022-11-27T13:25:02Z) - ZoomNAS: Searching for Whole-body Human Pose Estimation in the Wild [97.0025378036642]
本研究では,全身の階層構造を考慮したシングルネットワーク方式ZoomNetを提案する。
また,全身のポーズ推定の精度と効率を両立させるために,ZoomNASと呼ばれるニューラルネットワーク検索フレームワークを提案する。
ZoomNASをトレーニングし,評価するために,最初の大規模2次元人体データセットであるCOCO-WholeBody V1.0を導入する。
論文 参考訳(メタデータ) (2022-08-23T16:33:57Z) - Body Meshes as Points [84.61457490195743]
既存の方法は、主に2段階に基づく1段階の人物のローカライズと、他の段階の個々のボディメッシュ推定である。
BMP(Body Meshes as Points)というシングルステージモデルを提案し、パイプラインを簡素化し、効率性とパフォーマンスを向上する。
論文 参考訳(メタデータ) (2021-05-06T06:58:38Z) - PARE: Part Attention Regressor for 3D Human Body Estimation [80.20146689494992]
Part Attention Regressorはボディパートガイドによる注意マスクの予測を学ぶ。
コードはhttps://pare.is.tue.mpg.de/で研究目的に利用できる。
論文 参考訳(メタデータ) (2021-04-17T12:42:56Z) - Whole-Body Human Pose Estimation in the Wild [88.09875133989155]
COCO-WholeBodyは、全体アノテーションでCOCOデータセットを拡張する。
これは人体全体に手動のアノテーションがある最初のベンチマークである。
ZoomNetという名前のシングルネットワークモデルは、完全な人体の階層構造を考慮するために考案された。
論文 参考訳(メタデータ) (2020-07-23T08:35:26Z) - Attention-based Joint Detection of Object and Semantic Part [4.389917490809522]
我々のモデルは2つのFaster-RCNNモデルに基づいて作成され、それらの特徴を共有して両方の表現を拡張します。
PASCAL-Part 2010データセットの実験では、関節検出は物体検出と部分検出の両方を同時に改善できることが示された。
論文 参考訳(メタデータ) (2020-07-05T18:54:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。