論文の概要: Bottom-Up 2D Pose Estimation via Dual Anatomical Centers for Small-Scale
Persons
- arxiv url: http://arxiv.org/abs/2208.11975v1
- Date: Thu, 25 Aug 2022 10:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:30:29.622916
- Title: Bottom-Up 2D Pose Estimation via Dual Anatomical Centers for Small-Scale
Persons
- Title(参考訳): 小人数者のための二重解剖センターによる底上げ2次元姿勢推定
- Authors: Yu Cheng, Yihao Ai, Bo Wang, Xinchao Wang, Robby T. Tan
- Abstract要約: マルチパーソン2Dポーズ推定では、ボトムアップ手法は同時にすべての人のポーズを予測する。
本手法は,バウンディングボックス精度を38.4%改善し,バウンディングボックスリコールを39.1%改善した。
ヒトのポーズAP評価では,COCOテストデフセット上で新しいSOTA(71.0 AP)を単一スケールテストで達成する。
- 参考スコア(独自算出の注目度): 75.86463396561744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In multi-person 2D pose estimation, the bottom-up methods simultaneously
predict poses for all persons, and unlike the top-down methods, do not rely on
human detection. However, the SOTA bottom-up methods' accuracy is still
inferior compared to the existing top-down methods. This is due to the
predicted human poses being regressed based on the inconsistent human bounding
box center and the lack of human-scale normalization, leading to the predicted
human poses being inaccurate and small-scale persons being missed. To push the
envelope of the bottom-up pose estimation, we firstly propose multi-scale
training to enhance the network to handle scale variation with single-scale
testing, particularly for small-scale persons. Secondly, we introduce dual
anatomical centers (i.e., head and body), where we can predict the human poses
more accurately and reliably, especially for small-scale persons. Moreover,
existing bottom-up methods use multi-scale testing to boost the accuracy of
pose estimation at the price of multiple additional forward passes, which
weakens the efficiency of bottom-up methods, the core strength compared to
top-down methods. By contrast, our multi-scale training enables the model to
predict high-quality poses in a single forward pass (i.e., single-scale
testing). Our method achieves 38.4\% improvement on bounding box precision and
39.1\% improvement on bounding box recall over the state of the art (SOTA) on
the challenging small-scale persons subset of COCO. For the human pose AP
evaluation, we achieve a new SOTA (71.0 AP) on the COCO test-dev set with the
single-scale testing. We also achieve the top performance (40.3 AP) on OCHuman
dataset in cross-dataset evaluation.
- Abstract(参考訳): 多人数の2次元ポーズ推定では、ボトムアップ法は全員のポーズを同時に予測し、トップダウンの手法とは異なり、人間検出に依存しない。
しかし, sotaボトムアップ法の精度は, 従来のトップダウン法に比べまだ劣っている。
これは、予測された人間のポーズが、一貫性のない人間境界箱センターと人間のスケールの正規化の欠如に基づいて後退しているためである。
ボトムアップポーズ推定のエンベロープをプッシュするために,まず,ネットワークのスケール変動に対応するためのネットワーク強化,特に小規模者を対象としたマルチスケールトレーニングを提案する。
第2に,人間のポーズをより正確に,かつ確実に予測できる2つの解剖学的中心(すなわち頭と体)を導入する。
さらに,既存のボトムアップ法では,複数回のボトムアップ法に比べてボトムアップ法効率,コア強度を低下させるため,複数のフォワードパスの価格でポーズ推定の精度を高めるために,マルチスケールテストが用いられている。
対照的に、我々のマルチスケールトレーニングにより、モデルは単一の前方通過(すなわちシングルスケールテスト)で高品質なポーズを予測することができる。
本手法は,COCOの小規模サブセットに挑戦する技術(SOTA)に対して,バウンディングボックス精度の38.4\%,バウンディングボックスリコールの39.1\%の改善を実現する。
ヒトのポーズAP評価では,COCOテストデフセット上で新しいSOTA(71.0 AP)を単一スケールテストで達成する。
また、OCHumanデータセット上での最高性能(40.3 AP)をクロスデータセット評価で達成する。
関連論文リスト
- AiOS: All-in-One-Stage Expressive Human Pose and Shape Estimation [55.179287851188036]
人間のポーズと形状の復元のための新しいオールインワンステージフレームワークであるAiOSを、追加の人間検出ステップなしで導入する。
まず、画像中の人間の位置を探索し、各インスタンスのグローバルな機能をエンコードするために、人間のトークンを使用します。
そして、画像中の人間の関節を探索し、きめ細かい局所的特徴を符号化するジョイント関連トークンを導入する。
論文 参考訳(メタデータ) (2024-03-26T17:59:23Z) - Rethinking pose estimation in crowds: overcoming the detection
information-bottleneck and ambiguity [46.10812760258666]
個人間の頻繁な相互作用は、ポーズ推定アルゴリズムの基本的な課題である。
ボトムアップ条件付きトップダウンポーズ推定と呼ばれる新しいパイプラインを提案する。
動物と人間のポーズ推定ベンチマークにおけるアプローチの性能と効率を実証する。
論文 参考訳(メタデータ) (2023-06-13T16:14:40Z) - 2D Human Pose Estimation with Explicit Anatomical Keypoints Structure
Constraints [15.124606575017621]
本稿では,解剖学的キーポイント構造制約を明示した新しい2次元ポーズ推定手法を提案する。
提案手法は,既存のボトムアップやトップダウンの人間のポーズ推定手法に組み込むことができる。
提案手法は,既存のボトムアップとトップダウンの人間のポーズ推定手法に対して良好に機能する。
論文 参考訳(メタデータ) (2022-12-05T11:01:43Z) - Dual networks based 3D Multi-Person Pose Estimation from Monocular Video [42.01876518017639]
複数人の3Dポーズ推定はシングルポーズ推定よりも難しい。
既存のトップダウンとボトムアップのアプローチでは、推定が検出エラーに悩まされる。
我々は,トップダウンアプローチとボトムアップアプローチを統合して,その強みを活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T08:53:38Z) - Rethinking Keypoint Representations: Modeling Keypoints and Poses as
Objects for Multi-Person Human Pose Estimation [79.78017059539526]
本研究では,個々のキーポイントと空間的関連キーポイント(ポーズ)の集合を,密集した単一ステージアンカーベース検出フレームワーク内のオブジェクトとしてモデル化する,新しいヒートマップフリーなキーポイント推定手法を提案する。
実験では, KAPAOは従来手法よりもはるかに高速かつ高精度であり, 熱マップ後処理に悩まされていた。
我々の大規模モデルであるKAPAO-Lは、テスト時間拡張なしでMicrosoft COCO Keypoints検証セット上で70.6のAPを達成する。
論文 参考訳(メタデータ) (2021-11-16T15:36:44Z) - Monocular 3D Multi-Person Pose Estimation by Integrating Top-Down and
Bottom-Up Networks [33.974241749058585]
マルチパーソンポーズ推定は、人間の検出が間違っている可能性があり、人間の結合群は信頼できない。
既存のトップダウン手法は人間の検出に依存しているため、これらの問題に悩まされる。
我々は,その強みを生かすために,トップダウンアプローチとボトムアップアプローチの統合を提案する。
論文 参考訳(メタデータ) (2021-04-05T07:05:21Z) - Multi-person 3D Pose Estimation in Crowded Scenes Based on Multi-View
Geometry [62.29762409558553]
マルチパーソナライズされた3次元ポーズ推定手法における特徴マッチングと深さ推定のコアは、エピポーラ制約である。
スパサーの群衆シーンにおけるこの定式化の良好なパフォーマンスにもかかわらず、その効果はより密集した群衆の状況下でしばしば挑戦される。
本稿では,マルチパーソン3次元ポーズ推定式から脱却し,群衆ポーズ推定として再編成する。
論文 参考訳(メタデータ) (2020-07-21T17:59:36Z) - Cascaded deep monocular 3D human pose estimation with evolutionary
training data [76.3478675752847]
深層表現学習は単眼の3次元ポーズ推定において顕著な精度を達成した。
本稿では,大量のトレーニングデータに対してスケーラブルな新しいデータ拡張手法を提案する。
本手法は,先行知識に触発された階層的人体表現と合成に基づいて,未知の3次元人体骨格を合成する。
論文 参考訳(メタデータ) (2020-06-14T03:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。