論文の概要: Body Size and Depth Disambiguation in Multi-Person Reconstruction from
Single Images
- arxiv url: http://arxiv.org/abs/2111.01884v1
- Date: Tue, 2 Nov 2021 20:42:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 13:49:32.726315
- Title: Body Size and Depth Disambiguation in Multi-Person Reconstruction from
Single Images
- Title(参考訳): シングル画像からの多人数再建における体の大きさと深さの曖昧さ
- Authors: Nicolas Ugrinovic, Adria Ruiz, Antonio Agudo, Alberto Sanfeliu,
Francesc Moreno-Noguer
- Abstract要約: 複数人物の身体ポーズと1枚の画像からの形状推定の問題に対処する。
我々は,すべての人の足が1階に残るように強制することで,適切な身体規模と相対カメラのポーズを学習する新しい最適化手法を考案した。
MuPoTS-3D と 3DPW データセットの徹底的な評価により,本手法は空間配置を検索しながら,複数の人物の身体翻訳と形状を確実に推定できることが示されている。
- 参考スコア(独自算出の注目度): 44.96633481495911
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We address the problem of multi-person 3D body pose and shape estimation from
a single image. While this problem can be addressed by applying single-person
approaches multiple times for the same scene, recent works have shown the
advantages of building upon deep architectures that simultaneously reason about
all people in the scene in a holistic manner by enforcing, e.g., depth order
constraints or minimizing interpenetration among reconstructed bodies. However,
existing approaches are still unable to capture the size variability of people
caused by the inherent body scale and depth ambiguity. In this work, we tackle
this challenge by devising a novel optimization scheme that learns the
appropriate body scale and relative camera pose, by enforcing the feet of all
people to remain on the ground floor. A thorough evaluation on MuPoTS-3D and
3DPW datasets demonstrates that our approach is able to robustly estimate the
body translation and shape of multiple people while retrieving their spatial
arrangement, consistently improving current state-of-the-art, especially in
scenes with people of very different heights
- Abstract(参考訳): 複数人物の身体ポーズと1枚の画像からの形状推定の問題に対処する。
この問題は、同一場面に複数の人物アプローチを適用することで解決できるが、近年の研究では、シーン内のすべての人々を、例えば、深さの順序の制約や再構成された物体間の間隙を最小化するなど、全体論的に推論する、深いアーキテクチャの上に構築する利点が示されている。
しかし、既存のアプローチでは、身体の規模や深さのあいまいさによって引き起こされる人々のサイズの変動を捉えることはできない。
本研究では,この課題に対処するために,すべての人の足が1階に残るように強制することで,適切な身体規模と相対カメラのポーズを学習する新しい最適化手法を考案する。
MuPoTS-3Dと3DPWデータセットの徹底的な評価は、我々のアプローチが空間的配置を取得しながら、複数の人の身体翻訳と形状を頑健に推定できることを示す。
関連論文リスト
- AvatarPose: Avatar-guided 3D Pose Estimation of Close Human Interaction from Sparse Multi-view Videos [31.904839609743448]
既存のマルチビュー手法は、複数の密接な対話の人々の3Dポーズと形状を推定する上で、しばしば課題に直面します。
個人ごとのパーソナライズされた暗黙的神経アバターを前者として活用する新しい手法を提案する。
実験により、いくつかの公開データセット上での最先端の性能を示す。
論文 参考訳(メタデータ) (2024-08-04T18:41:35Z) - Scene-Aware 3D Multi-Human Motion Capture from a Single Camera [83.06768487435818]
静止カメラで記録された1枚のRGBビデオから、シーン内の複数の人間の3次元位置を推定し、その身体形状と調音を推定する問題を考察する。
コンピュータビジョンの最近の進歩を,2次元の人体関節,関節角度,正規化不均等マップ,人間のセグメンテーションマスクなど,様々なモダリティのための大規模事前訓練モデルを用いて活用している。
特に,2次元の関節と関節角度を用いた正規化不均等予測から,シーン深度とユニークな人格尺度を推定する。
論文 参考訳(メタデータ) (2023-01-12T18:01:28Z) - Single-view 3D Body and Cloth Reconstruction under Complex Poses [37.86174829271747]
既存の暗黙の関数ベースモデルを拡張して、任意のポーズと自己排他的な手足を持つ人間の画像を扱う。
入力画像を低精細度で3次元のボディ形状にマッピングする暗黙の関数を学習する。
次に、スムーズな表面を条件とした変位マップを学習し、衣服や身体の高周波の詳細を符号化する。
論文 参考訳(メタデータ) (2022-05-09T07:34:06Z) - Dual networks based 3D Multi-Person Pose Estimation from Monocular Video [42.01876518017639]
複数人の3Dポーズ推定はシングルポーズ推定よりも難しい。
既存のトップダウンとボトムアップのアプローチでは、推定が検出エラーに悩まされる。
我々は,トップダウンアプローチとボトムアップアプローチを統合して,その強みを活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T08:53:38Z) - SMAP: Single-Shot Multi-Person Absolute 3D Pose Estimation [46.85865451812981]
本稿では,まず,この2.5D表現に基づいて,まず2.5D表現の集合を回帰し,さらに深部認識部分関連アルゴリズムを用いて3D絶対ポーズを再構成するシステムを提案する。
このような単発ボトムアップ方式により、システムは人物間の深度関係をよりよく学習し、推論し、3Dと2Dの両方のポーズ推定を改善することができる。
論文 参考訳(メタデータ) (2020-08-26T09:56:07Z) - HMOR: Hierarchical Multi-Person Ordinal Relations for Monocular
Multi-Person 3D Pose Estimation [54.23770284299979]
本稿では, 階層型多人数常連関係(HMOR)を新たに導入する。
HMORは相互作用情報を階層的に深さと角度の順序関係として符号化する。
統合トップダウンモデルは、学習プロセスにおけるこれらの順序関係を活用するように設計されている。
提案手法は, 公開されている多人数の3Dポーズデータセットにおいて, 最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-08-01T07:53:27Z) - Coherent Reconstruction of Multiple Humans from a Single Image [68.3319089392548]
本研究では,1枚の画像から多人数の3Dポーズ推定を行う問題に対処する。
この問題のトップダウン設定における典型的な回帰アプローチは、まずすべての人間を検出し、それぞれを独立して再構築する。
我々のゴールは、これらの問題を回避し、現場のすべての人間のコヒーレントな3D再構成を生成するために学習する単一のネットワークをトレーニングすることである。
論文 参考訳(メタデータ) (2020-06-15T17:51:45Z) - Learning Pose-invariant 3D Object Reconstruction from Single-view Images [61.98279201609436]
本稿では,単視点画像のみから3次元形状を学習する,より現実的な構成について検討する。
最大の難しさは、単一のビューイメージが提供できる制約の不足にある。
本稿では, 対角コンパクトな形状空間を学習するために, 効果的な対角領域混同法を提案する。
論文 参考訳(メタデータ) (2020-04-03T02:47:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。