論文の概要: Multi-person Implicit Reconstruction from a Single Image
- arxiv url: http://arxiv.org/abs/2104.09283v1
- Date: Mon, 19 Apr 2021 13:21:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:48:25.759317
- Title: Multi-person Implicit Reconstruction from a Single Image
- Title(参考訳): 単一画像からの多人数暗黙的再構成
- Authors: Armin Mustafa, Akin Caliskan, Lourdes Agapito, Adrian Hilton
- Abstract要約: 本稿では,1つの画像から複数の人物の詳細な空間的コヒーレントな再構築を実現するための新しいエンドツーエンド学習フレームワークを提案する。
既存のマルチパーソンメソッドは、モデルベースで、ゆるい服と髪の人々の正確な3dモデルをキャプチャできないことが多いという、2つの大きな欠点を抱えている。
- 参考スコア(独自算出の注目度): 37.6877421030774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new end-to-end learning framework to obtain detailed and
spatially coherent reconstructions of multiple people from a single image.
Existing multi-person methods suffer from two main drawbacks: they are often
model-based and therefore cannot capture accurate 3D models of people with
loose clothing and hair; or they require manual intervention to resolve
occlusions or interactions. Our method addresses both limitations by
introducing the first end-to-end learning approach to perform model-free
implicit reconstruction for realistic 3D capture of multiple clothed people in
arbitrary poses (with occlusions) from a single image. Our network
simultaneously estimates the 3D geometry of each person and their 6DOF spatial
locations, to obtain a coherent multi-human reconstruction. In addition, we
introduce a new synthetic dataset that depicts images with a varying number of
inter-occluded humans and a variety of clothing and hair styles. We demonstrate
robust, high-resolution reconstructions on images of multiple humans with
complex occlusions, loose clothing and a large variety of poses and scenes. Our
quantitative evaluation on both synthetic and real-world datasets demonstrates
state-of-the-art performance with significant improvements in the accuracy and
completeness of the reconstructions over competing approaches.
- Abstract(参考訳): 画像から複数の人物の詳細な空間的コヒーレントな再構築を実現するためのエンドツーエンド学習フレームワークを提案する。
既存のマルチパーソン手法は、しばしばモデルベースであり、ゆるい服や髪を持つ人々の正確な3Dモデルを捉えることができず、または、隠蔽や相互作用を解決するために手動で介入する必要がある。
本手法は,1つの画像から任意のポーズ(オクルージョンを伴う)で複数の服を着た人物を写実的に3dキャプチャするモデルフリーな暗黙的再構成を行うための,最初のエンドツーエンド学習手法を導入することで,両者の制限に対処する。
ネットワークは、各人物とその6DOF空間位置の3次元形状を同時に推定し、コヒーレントなマルチヒューマン再構成を得る。
さらに,様々な数の人体とさまざまな衣服やヘアスタイルの画像を表現した新しい合成データセットも紹介した。
複雑な咬合、ゆるい衣服、多彩なポーズやシーンを持つ複数の人間の画像に対して、ロバストで高解像度な再構成を示す。
合成および実世界の両方のデータセットに対する定量的評価は、競合するアプローチに対する再構成の精度と完全性を大幅に改善した最先端の性能を示す。
関連論文リスト
- EasyHOI: Unleashing the Power of Large Models for Reconstructing Hand-Object Interactions in the Wild [79.71523320368388]
本研究の目的は,手動物体のインタラクションを単一視点画像から再構築することである。
まず、手ポーズとオブジェクト形状を推定する新しいパイプラインを設計する。
最初の再構築では、事前に誘導された最適化方式を採用する。
論文 参考訳(メタデータ) (2024-11-21T16:33:35Z) - DiHuR: Diffusion-Guided Generalizable Human Reconstruction [51.31232435994026]
一般化可能なヒト3次元再構成のための拡散誘導モデルであるDiHuRを導入し,スパース・ミニマル・オーバーラップ画像からのビュー合成について述べる。
提案手法は, 一般化可能なフィードフォワードモデルと2次元拡散モデルとの2つのキー前処理をコヒーレントな方法で統合する。
論文 参考訳(メタデータ) (2024-11-16T03:52:23Z) - Single-image coherent reconstruction of objects and humans [16.836684199314938]
モノクル画像から物体や人間を再構成する既存の方法は、激しいメッシュ衝突と性能制限に悩まされている。
本稿では,1つの画像から対話対象と人物を相互に一貫した3次元再構成する手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T11:27:18Z) - MultiPly: Reconstruction of Multiple People from Monocular Video in the Wild [32.6521941706907]
モノクラーインザワイルドビデオから3Dで複数の人物を再構成する新しいフレームワークであるMultiPlyを提案する。
まず、シーン全体の階層化されたニューラル表現を定義し、個々の人間と背景モデルで合成する。
階層化可能なボリュームレンダリングを通じて,ビデオから階層化ニューラル表現を学習する。
論文 参考訳(メタデータ) (2024-06-03T17:59:57Z) - USR: Unsupervised Separated 3D Garment and Human Reconstruction via
Geometry and Semantic Consistency [41.89803177312638]
本研究では,人体を再構築し,テクスチャ化された衣服を3次元モデルなしで層状に再現する,非教師付き分離型3D衣服と人体再構成モデルを提案する。
身近な多視点画像と身近な人物のジオメトリのマッピングを学習するための一般化した表面認識型ニューラルラジオアンス場を提案する。
論文 参考訳(メタデータ) (2023-02-21T08:48:27Z) - Progressive Multi-view Human Mesh Recovery with Self-Supervision [68.60019434498703]
既存のソリューションは通常、新しい設定への一般化性能の低下に悩まされる。
マルチビューヒューマンメッシュリカバリのためのシミュレーションに基づく新しいトレーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-12-10T06:28:29Z) - MVP-Human Dataset for 3D Human Avatar Reconstruction from Unconstrained
Frames [59.37430649840777]
野生(Arwild)における3次元アバター再構成を行い,まず暗黙のスキンフィールドを多段階的に再構成する。
大規模なデータセットであるMVP-Humanには400人の被験者が参加し、それぞれ異なるポーズで15のスキャンを行います。
全体として、特定のネットワークアーキテクチャと多様なデータにより、トレーニングされたモデルは、制約のないフレームから3Dアバターを再構築することができる。
論文 参考訳(メタデータ) (2022-04-24T03:57:59Z) - Deep3DPose: Realtime Reconstruction of Arbitrarily Posed Human Bodies
from Single RGB Images [5.775625085664381]
本研究では,3次元人間のポーズを正確に再構築し,単一画像から詳細な3次元フルボディ幾何モデルをリアルタイムに構築する手法を提案する。
このアプローチの鍵となるアイデアは、単一のイメージを使用して5つの出力を同時に予測する、新しいエンドツーエンドのマルチタスクディープラーニングフレームワークである。
本研究では,3次元人体フロンティアを進化させ,定量的評価と最先端手法との比較により,単一画像からの再構築を図っている。
論文 参考訳(メタデータ) (2021-06-22T04:26:11Z) - Multi-View Consistency Loss for Improved Single-Image 3D Reconstruction
of Clothed People [36.30755368202957]
本稿では,1枚の画像から3次元人物形状復元の精度を向上させるための新しい手法を提案する。
衣服、髪、体の大きさ、ポーズ、カメラの視点などによる形状の変化が大きいため、衣服の復元の正確さと完全性は限られている。
論文 参考訳(メタデータ) (2020-09-29T17:18:00Z) - HMOR: Hierarchical Multi-Person Ordinal Relations for Monocular
Multi-Person 3D Pose Estimation [54.23770284299979]
本稿では, 階層型多人数常連関係(HMOR)を新たに導入する。
HMORは相互作用情報を階層的に深さと角度の順序関係として符号化する。
統合トップダウンモデルは、学習プロセスにおけるこれらの順序関係を活用するように設計されている。
提案手法は, 公開されている多人数の3Dポーズデータセットにおいて, 最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-08-01T07:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。