論文の概要: Multi-person Implicit Reconstruction from a Single Image
- arxiv url: http://arxiv.org/abs/2104.09283v1
- Date: Mon, 19 Apr 2021 13:21:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:48:25.759317
- Title: Multi-person Implicit Reconstruction from a Single Image
- Title(参考訳): 単一画像からの多人数暗黙的再構成
- Authors: Armin Mustafa, Akin Caliskan, Lourdes Agapito, Adrian Hilton
- Abstract要約: 本稿では,1つの画像から複数の人物の詳細な空間的コヒーレントな再構築を実現するための新しいエンドツーエンド学習フレームワークを提案する。
既存のマルチパーソンメソッドは、モデルベースで、ゆるい服と髪の人々の正確な3dモデルをキャプチャできないことが多いという、2つの大きな欠点を抱えている。
- 参考スコア(独自算出の注目度): 37.6877421030774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new end-to-end learning framework to obtain detailed and
spatially coherent reconstructions of multiple people from a single image.
Existing multi-person methods suffer from two main drawbacks: they are often
model-based and therefore cannot capture accurate 3D models of people with
loose clothing and hair; or they require manual intervention to resolve
occlusions or interactions. Our method addresses both limitations by
introducing the first end-to-end learning approach to perform model-free
implicit reconstruction for realistic 3D capture of multiple clothed people in
arbitrary poses (with occlusions) from a single image. Our network
simultaneously estimates the 3D geometry of each person and their 6DOF spatial
locations, to obtain a coherent multi-human reconstruction. In addition, we
introduce a new synthetic dataset that depicts images with a varying number of
inter-occluded humans and a variety of clothing and hair styles. We demonstrate
robust, high-resolution reconstructions on images of multiple humans with
complex occlusions, loose clothing and a large variety of poses and scenes. Our
quantitative evaluation on both synthetic and real-world datasets demonstrates
state-of-the-art performance with significant improvements in the accuracy and
completeness of the reconstructions over competing approaches.
- Abstract(参考訳): 画像から複数の人物の詳細な空間的コヒーレントな再構築を実現するためのエンドツーエンド学習フレームワークを提案する。
既存のマルチパーソン手法は、しばしばモデルベースであり、ゆるい服や髪を持つ人々の正確な3Dモデルを捉えることができず、または、隠蔽や相互作用を解決するために手動で介入する必要がある。
本手法は,1つの画像から任意のポーズ(オクルージョンを伴う)で複数の服を着た人物を写実的に3dキャプチャするモデルフリーな暗黙的再構成を行うための,最初のエンドツーエンド学習手法を導入することで,両者の制限に対処する。
ネットワークは、各人物とその6DOF空間位置の3次元形状を同時に推定し、コヒーレントなマルチヒューマン再構成を得る。
さらに,様々な数の人体とさまざまな衣服やヘアスタイルの画像を表現した新しい合成データセットも紹介した。
複雑な咬合、ゆるい衣服、多彩なポーズやシーンを持つ複数の人間の画像に対して、ロバストで高解像度な再構成を示す。
合成および実世界の両方のデータセットに対する定量的評価は、競合するアプローチに対する再構成の精度と完全性を大幅に改善した最先端の性能を示す。
関連論文リスト
- USR: Unsupervised Separated 3D Garment and Human Reconstruction via
Geometry and Semantic Consistency [41.89803177312638]
本研究では,人体を再構築し,テクスチャ化された衣服を3次元モデルなしで層状に再現する,非教師付き分離型3D衣服と人体再構成モデルを提案する。
身近な多視点画像と身近な人物のジオメトリのマッピングを学習するための一般化した表面認識型ニューラルラジオアンス場を提案する。
論文 参考訳(メタデータ) (2023-02-21T08:48:27Z) - Progressive Multi-view Human Mesh Recovery with Self-Supervision [68.60019434498703]
既存のソリューションは通常、新しい設定への一般化性能の低下に悩まされる。
マルチビューヒューマンメッシュリカバリのためのシミュレーションに基づく新しいトレーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-12-10T06:28:29Z) - MVP-Human Dataset for 3D Human Avatar Reconstruction from Unconstrained
Frames [59.37430649840777]
野生(Arwild)における3次元アバター再構成を行い,まず暗黙のスキンフィールドを多段階的に再構成する。
大規模なデータセットであるMVP-Humanには400人の被験者が参加し、それぞれ異なるポーズで15のスキャンを行います。
全体として、特定のネットワークアーキテクチャと多様なデータにより、トレーニングされたモデルは、制約のないフレームから3Dアバターを再構築することができる。
論文 参考訳(メタデータ) (2022-04-24T03:57:59Z) - Deep3DPose: Realtime Reconstruction of Arbitrarily Posed Human Bodies
from Single RGB Images [5.775625085664381]
本研究では,3次元人間のポーズを正確に再構築し,単一画像から詳細な3次元フルボディ幾何モデルをリアルタイムに構築する手法を提案する。
このアプローチの鍵となるアイデアは、単一のイメージを使用して5つの出力を同時に予測する、新しいエンドツーエンドのマルチタスクディープラーニングフレームワークである。
本研究では,3次元人体フロンティアを進化させ,定量的評価と最先端手法との比較により,単一画像からの再構築を図っている。
論文 参考訳(メタデータ) (2021-06-22T04:26:11Z) - Detailed 3D Human Body Reconstruction from Multi-view Images Combining
Voxel Super-Resolution and Learned Implicit Representation [12.459968574683625]
多視点画像から詳細な3次元人体を再構築する粗い方法を提案する。
粗い3Dモデルは、マルチスケールな特徴に基づいて暗黙表現を学習することによって推定される。
洗練された3D人体モデルは、詳細を保存できるボクセル超解像によって製造することができる。
論文 参考訳(メタデータ) (2020-12-11T08:07:39Z) - Multi-View Consistency Loss for Improved Single-Image 3D Reconstruction
of Clothed People [36.30755368202957]
本稿では,1枚の画像から3次元人物形状復元の精度を向上させるための新しい手法を提案する。
衣服、髪、体の大きさ、ポーズ、カメラの視点などによる形状の変化が大きいため、衣服の復元の正確さと完全性は限られている。
論文 参考訳(メタデータ) (2020-09-29T17:18:00Z) - HMOR: Hierarchical Multi-Person Ordinal Relations for Monocular
Multi-Person 3D Pose Estimation [54.23770284299979]
本稿では, 階層型多人数常連関係(HMOR)を新たに導入する。
HMORは相互作用情報を階層的に深さと角度の順序関係として符号化する。
統合トップダウンモデルは、学習プロセスにおけるこれらの順序関係を活用するように設計されている。
提案手法は, 公開されている多人数の3Dポーズデータセットにおいて, 最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-08-01T07:53:27Z) - SparseFusion: Dynamic Human Avatar Modeling from Sparse RGBD Images [49.52782544649703]
本稿では,RGBDフレームのスパース集合に基づく3次元人体形状の再構築手法を提案する。
主な課題は、これらのスパースフレームを標準的な3Dモデルにしっかりと融合させる方法だ。
私たちのフレームワークは柔軟で、潜在的なアプリケーションは形状の再構築を超えています。
論文 参考訳(メタデータ) (2020-06-05T18:53:36Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。