論文の概要: AdaptivePose++: A Powerful Single-Stage Network for Multi-Person Pose
Regression
- arxiv url: http://arxiv.org/abs/2210.04014v1
- Date: Sat, 8 Oct 2022 12:54:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 17:20:02.667526
- Title: AdaptivePose++: A Powerful Single-Stage Network for Multi-Person Pose
Regression
- Title(参考訳): AdaptivePose++: マルチパーソンポース回帰のための強力なシングルステージネットワーク
- Authors: Yabo Xiao, Xiaojuan Wang, Dongdong Yu, Kai Su, Lei Jin, Mei Song,
Shuicheng Yan, Jian Zhao
- Abstract要約: そこで本研究では,ヒトの部位を適応点として表現し,微細な身体表現法を提案する。
提案するボディ表現では,AdaptivePoseと呼ばれる,コンパクトなシングルステージ多人数ポーズ回帰ネットワークを提供する。
本稿では,AdaptivePoseの有効性を検証するために,2D/3D多人数ポーズ推定タスクにAdaptivePoseを用いる。
- 参考スコア(独自算出の注目度): 66.39539141222524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-person pose estimation generally follows top-down and bottom-up
paradigms. Both of them use an extra stage ($\boldsymbol{e.g.,}$ human
detection in top-down paradigm or grouping process in bottom-up paradigm) to
build the relationship between the human instance and corresponding keypoints,
thus leading to the high computation cost and redundant two-stage pipeline. To
address the above issue, we propose to represent the human parts as adaptive
points and introduce a fine-grained body representation method. The novel body
representation is able to sufficiently encode the diverse pose information and
effectively model the relationship between the human instance and corresponding
keypoints in a single-forward pass. With the proposed body representation, we
further deliver a compact single-stage multi-person pose regression network,
termed as AdaptivePose. During inference, our proposed network only needs a
single-step decode operation to form the multi-person pose without complex
post-processes and refinements. We employ AdaptivePose for both 2D/3D
multi-person pose estimation tasks to verify the effectiveness of AdaptivePose.
Without any bells and whistles, we achieve the most competitive performance on
MS COCO and CrowdPose in terms of accuracy and speed. Furthermore, the
outstanding performance on MuCo-3DHP and MuPoTS-3D further demonstrates the
effectiveness and generalizability on 3D scenes. Code is available at
https://github.com/buptxyb666/AdaptivePose.
- Abstract(参考訳): 多人数のポーズ推定は一般的にトップダウンとボトムアップのパラダイムに従う。
両者は、人間インスタンスと対応するキーポイントの関係を構築するために余分なステージ(トップダウンパラダイムやボトムアップパラダイムにおけるグループ化プロセスで、$ヒューマン検出)を使用しており、高い計算コストと冗長な2段階パイプラインに繋がる。
上記の課題に対処するため,人間の部位を適応点として表現し,粒度の細かい身体表現法を提案する。
新規なボディ表現は、多様なポーズ情報を十分にエンコードでき、ヒトのインスタンスと対応するキーポイントとの関係を単一のフォワードパスで効果的にモデル化することができる。
提案するボディ表現では,AdaptivePoseと呼ばれるコンパクトなシングルステージ多人数ポーズ回帰ネットワークが提供される。
推測中,提案するネットワークは,複雑なポストプロセスやリファインメントを伴わずに複数人のポーズを形成するために,単一のステップデコード操作だけでよい。
2d/3d多人数ポーズ推定タスクにadaptiveposeを用い,adaptiveposeの有効性を検証する。
ベルとホイッスルがなければ、精度とスピードの面で、MS COCOとCrowdPoseで最も競争力のあるパフォーマンスを達成できます。
さらに, MuCo-3DHP と MuPoTS-3D の優れた性能は, 3次元シーンの有効性と一般化性を示す。
コードはhttps://github.com/buptxyb666/AdaptivePoseで入手できる。
関連論文リスト
- Co-Evolution of Pose and Mesh for 3D Human Body Estimation from Video [23.93644678238666]
ビデオから3次元の人間の動きを復元するPose and Mesh Co-Evolution Network (PMCE)を提案する。
提案したPMCEは、フレーム単位の精度と時間的一貫性の両方の観点から、従来の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-08-20T16:03:21Z) - Non-Local Latent Relation Distillation for Self-Adaptive 3D Human Pose
Estimation [63.199549837604444]
3次元ポーズ推定アプローチは、強い(2D/3Dポーズ)または弱い(複数ビューまたは深さ)ペアによる監督の異なる形態を利用する。
我々は3Dポーズ学習を,ラベル付きソースドメインから完全に損なわれないターゲットへのタスク知識の転送を目的とした,自己指導型適応問題として捉えた。
我々は、異なる自己適応設定を評価し、標準ベンチマークで最先端の3Dポーズ推定性能を示す。
論文 参考訳(メタデータ) (2022-04-05T03:52:57Z) - AdaptivePose: Human Parts as Adaptive Points [7.833251195123861]
本稿では,人間の部位をポイントとして表現し,新しい身体表現を提案する。
DLA-34では67.4% AP / 29.4 fps、テストデブデータセットでは71.3% AP / 9.1 fps、HRNet-W48では9.1 fpsである。
論文 参考訳(メタデータ) (2021-12-27T12:46:12Z) - Direct Multi-view Multi-person 3D Pose Estimation [138.48139701871213]
マルチビュー画像からマルチパーソン3Dポーズを推定するためのMulti-view Pose Transformer(MvP)を提案する。
MvPは、中間タスクに頼ることなく、複数の人物の3Dポーズを直接クリーンで効率的な方法で回帰する。
我々は,MvPモデルがより効率的でありながら,いくつかのベンチマークにおいて最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-07T13:09:20Z) - Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo [71.59494156155309]
既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
論文 参考訳(メタデータ) (2021-04-06T03:49:35Z) - PandaNet : Anchor-Based Single-Shot Multi-Person 3D Pose Estimation [35.791868530073955]
PandaNetは、新しいシングルショット、アンカーベース、マルチパーソナライズされた3Dポーズ推定手法である。
提案モデルは境界ボックス検出を行い,検出者毎に2次元および3次元ポーズ回帰を1回のフォワードパスに設定する。
ネットワークが各バウンディングボックスの完全な3Dポーズを予測するため、関節を再グループ化するための後処理は不要である。
論文 参考訳(メタデータ) (2021-01-07T10:32:17Z) - Unsupervised Cross-Modal Alignment for Multi-Person 3D Pose Estimation [52.94078950641959]
マルチパーソン・ヒューマン・ポーズ推定のためのデプロイフレンドリーで高速なボトムアップ・フレームワークを提案する。
我々は,人物の位置を対応する3Dポーズ表現と統一する,多人数の3Dポーズのニューラル表現を採用する。
ペア化された2Dまたは3Dポーズアノテーションが利用できない実用的な配置パラダイムを提案する。
論文 参考訳(メタデータ) (2020-08-04T07:54:25Z) - Multi-person 3D Pose Estimation in Crowded Scenes Based on Multi-View
Geometry [62.29762409558553]
マルチパーソナライズされた3次元ポーズ推定手法における特徴マッチングと深さ推定のコアは、エピポーラ制約である。
スパサーの群衆シーンにおけるこの定式化の良好なパフォーマンスにもかかわらず、その効果はより密集した群衆の状況下でしばしば挑戦される。
本稿では,マルチパーソン3次元ポーズ推定式から脱却し,群衆ポーズ推定として再編成する。
論文 参考訳(メタデータ) (2020-07-21T17:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。