論文の概要: Occluded Human Mesh Recovery
- arxiv url: http://arxiv.org/abs/2203.13349v1
- Date: Thu, 24 Mar 2022 21:39:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 01:28:30.711740
- Title: Occluded Human Mesh Recovery
- Title(参考訳): 閉塞したヒトメッシュの回復
- Authors: Rawal Khirodkar, Shashank Tripathi, Kris Kitani
- Abstract要約: 我々は、画像空間コンテキストを組み込んだ新しいトップダウンメッシュ回復アプローチであるOCHMR(Occluded Human Mesh Recovery)を提案する。
OCHMRは、3DPW、CrowdPose、OCHumanといった挑戦的なマルチパーソンベンチマークにおいて優れたパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 23.63235079216075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Top-down methods for monocular human mesh recovery have two stages: (1)
detect human bounding boxes; (2) treat each bounding box as an independent
single-human mesh recovery task. Unfortunately, the single-human assumption
does not hold in images with multi-human occlusion and crowding. Consequently,
top-down methods have difficulties in recovering accurate 3D human meshes under
severe person-person occlusion. To address this, we present Occluded Human Mesh
Recovery (OCHMR) - a novel top-down mesh recovery approach that incorporates
image spatial context to overcome the limitations of the single-human
assumption. The approach is conceptually simple and can be applied to any
existing top-down architecture. Along with the input image, we condition the
top-down model on spatial context from the image in the form of body-center
heatmaps. To reason from the predicted body centermaps, we introduce Contextual
Normalization (CoNorm) blocks to adaptively modulate intermediate features of
the top-down model. The contextual conditioning helps our model disambiguate
between two severely overlapping human bounding-boxes, making it robust to
multi-person occlusion. Compared with state-of-the-art methods, OCHMR achieves
superior performance on challenging multi-person benchmarks like 3DPW,
CrowdPose and OCHuman. Specifically, our proposed contextual reasoning
architecture applied to the SPIN model with ResNet-50 backbone results in 75.2
PMPJPE on 3DPW-PC, 23.6 AP on CrowdPose and 37.7 AP on OCHuman datasets, a
significant improvement of 6.9 mm, 6.4 AP and 20.8 AP respectively over the
baseline. Code and models will be released.
- Abstract(参考訳): モノクラーメッシュ回復のためのトップダウン手法は,(1)人間の拘束ボックスを検出すること,(2)各拘束ボックスを独立した単一人間メッシュ回復タスクとして扱うこと,の2段階からなる。
残念なことに、単一人間の仮定は、複数の人間の閉塞と群がった画像では保持されない。
したがって, トップダウン法では, 重度の人的咬合下での正確な3次元メッシュの復元が困難である。
この問題を解決するために、私たちはOccluded Human Mesh Recovery (OCHMR)という、画像空間コンテキストを組み込んだ新しいトップダウンメッシュリカバリアプローチを紹介します。
このアプローチは概念的にはシンプルであり、既存のトップダウンアーキテクチャにも適用できる。
入力画像とともに、身体中心熱マップの形で画像から空間的文脈におけるトップダウンモデルを条件付ける。
予測されたボディーセンターマップから、トップダウンモデルの中間特徴を適応的に変調するコンテキスト正規化(CoNorm)ブロックを導入する。
コンテキストコンディショニングは,重なり合う人間のバウンディングボックス間の曖昧さを解消し,マルチパーソン・オクルージョンにロバストに役立ちます。
OCHMRは最先端の手法と比較して、3DPW、CrowdPose、OCHumanといった挑戦的なマルチパーソンベンチマークにおいて優れたパフォーマンスを実現している。
具体的には,3DPW-PCでは75.2 PMPJPE,OCHumanデータセットでは23.6 AP,OCHumanデータセットでは37.7 AP,ベースラインでは6.9 mm,6.4 AP,20.8 APの大幅な改善を実現した。
コードとモデルはリリースされる。
関連論文リスト
- AiOS: All-in-One-Stage Expressive Human Pose and Shape Estimation [55.179287851188036]
人間のポーズと形状の復元のための新しいオールインワンステージフレームワークであるAiOSを、追加の人間検出ステップなしで導入する。
まず、画像中の人間の位置を探索し、各インスタンスのグローバルな機能をエンコードするために、人間のトークンを使用します。
そして、画像中の人間の関節を探索し、きめ細かい局所的特徴を符号化するジョイント関連トークンを導入する。
論文 参考訳(メタデータ) (2024-03-26T17:59:23Z) - Score-Guided Diffusion for 3D Human Recovery [10.562998991986102]
Score-Guided Human Mesh Recovery (ScoreHMR)を提案する。
ScoreHMRはモデルフィッティングアプローチを模倣するが、拡散モデルの潜在空間におけるスコアガイダンスによって画像観察との整合が達成される。
提案手法は, (i) 単フレームモデルフィッティング, (ii) 複数視点からの再構成, (iii) ビデオシーケンスで人間を再構成することである。
論文 参考訳(メタデータ) (2024-03-14T17:56:14Z) - ORTexME: Occlusion-Robust Human Shape and Pose via Temporal Average
Texture and Mesh Encoding [35.49066795648395]
3次元の人体形状と単眼ビデオからのポーズ推定では、限定ラベル付きデータで訓練されたモデルは、閉塞のあるビデオにはうまく一般化できない。
我々は,ORTexME(Occlusion-robust temporal method, ORTexME)を紹介した。
提案手法は,1.8P-MPJPE誤り低減を実現する多人数3DPWデータセットにおいて,大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-09-21T15:50:04Z) - Bottom-Up 2D Pose Estimation via Dual Anatomical Centers for Small-Scale
Persons [75.86463396561744]
マルチパーソン2Dポーズ推定では、ボトムアップ手法は同時にすべての人のポーズを予測する。
本手法は,バウンディングボックス精度を38.4%改善し,バウンディングボックスリコールを39.1%改善した。
ヒトのポーズAP評価では,COCOテストデフセット上で新しいSOTA(71.0 AP)を単一スケールテストで達成する。
論文 参考訳(メタデータ) (2022-08-25T10:09:10Z) - Monocular 3D Multi-Person Pose Estimation by Integrating Top-Down and
Bottom-Up Networks [33.974241749058585]
マルチパーソンポーズ推定は、人間の検出が間違っている可能性があり、人間の結合群は信頼できない。
既存のトップダウン手法は人間の検出に依存しているため、これらの問題に悩まされる。
我々は,その強みを生かすために,トップダウンアプローチとボトムアップアプローチの統合を提案する。
論文 参考訳(メタデータ) (2021-04-05T07:05:21Z) - 3D Multi-bodies: Fitting Sets of Plausible 3D Human Models to Ambiguous
Image Data [77.57798334776353]
単眼・部分閉塞視からヒトの高密度3次元再構成を実現することの問題点を考察する。
身体の形状やポーズをパラメータ化することで、あいまいさをより効果的にモデル化できることを示唆する。
提案手法は, 3次元人間の標準ベンチマークにおいて, あいまいなポーズ回復において, 代替手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-02T13:55:31Z) - Multi-person 3D Pose Estimation in Crowded Scenes Based on Multi-View
Geometry [62.29762409558553]
マルチパーソナライズされた3次元ポーズ推定手法における特徴マッチングと深さ推定のコアは、エピポーラ制約である。
スパサーの群衆シーンにおけるこの定式化の良好なパフォーマンスにもかかわらず、その効果はより密集した群衆の状況下でしばしば挑戦される。
本稿では,マルチパーソン3次元ポーズ推定式から脱却し,群衆ポーズ推定として再編成する。
論文 参考訳(メタデータ) (2020-07-21T17:59:36Z) - Coherent Reconstruction of Multiple Humans from a Single Image [68.3319089392548]
本研究では,1枚の画像から多人数の3Dポーズ推定を行う問題に対処する。
この問題のトップダウン設定における典型的な回帰アプローチは、まずすべての人間を検出し、それぞれを独立して再構築する。
我々のゴールは、これらの問題を回避し、現場のすべての人間のコヒーレントな3D再構成を生成するために学習する単一のネットワークをトレーニングすることである。
論文 参考訳(メタデータ) (2020-06-15T17:51:45Z) - HEMlets PoSh: Learning Part-Centric Heatmap Triplets for 3D Human Pose
and Shape Estimation [60.35776484235304]
本研究は, 中間状態部分熱マップトリプレット(HEMlets)を導入し, 検出された2次元関節を三次元空間に持ち上げる不確実性に対処しようとするものである。
HEMletsは3つのジョイントヒートマップを使用して、各骨格体部に対するエンドジョイントの相対的な深さ情報を表す。
Convolutional Network (ConvNet) は、入力画像からHEMletを予測し、次にボリュームのジョイント・ヒートマップレグレッションを学習する。
論文 参考訳(メタデータ) (2020-03-10T04:03:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。