論文の概要: Multi-View Consistency Loss for Improved Single-Image 3D Reconstruction
of Clothed People
- arxiv url: http://arxiv.org/abs/2009.14162v1
- Date: Tue, 29 Sep 2020 17:18:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 06:47:29.006886
- Title: Multi-View Consistency Loss for Improved Single-Image 3D Reconstruction
of Clothed People
- Title(参考訳): 着衣者の単画像3次元再構築における多視点一貫性損失
- Authors: Akin Caliskan, Armin Mustafa, Evren Imre, Adrian Hilton
- Abstract要約: 本稿では,1枚の画像から3次元人物形状復元の精度を向上させるための新しい手法を提案する。
衣服、髪、体の大きさ、ポーズ、カメラの視点などによる形状の変化が大きいため、衣服の復元の正確さと完全性は限られている。
- 参考スコア(独自算出の注目度): 36.30755368202957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel method to improve the accuracy of the 3D reconstruction of
clothed human shape from a single image. Recent work has introduced volumetric,
implicit and model-based shape learning frameworks for reconstruction of
objects and people from one or more images. However, the accuracy and
completeness for reconstruction of clothed people is limited due to the large
variation in shape resulting from clothing, hair, body size, pose and camera
viewpoint. This paper introduces two advances to overcome this limitation:
firstly a new synthetic dataset of realistic clothed people, 3DVH; and
secondly, a novel multiple-view loss function for training of monocular
volumetric shape estimation, which is demonstrated to significantly improve
generalisation and reconstruction accuracy. The 3DVH dataset of realistic
clothed 3D human models rendered with diverse natural backgrounds is
demonstrated to allows transfer to reconstruction from real images of people.
Comprehensive comparative performance evaluation on both synthetic and real
images of people demonstrates that the proposed method significantly
outperforms the previous state-of-the-art learning-based single image 3D human
shape estimation approaches achieving significant improvement of reconstruction
accuracy, completeness, and quality. An ablation study shows that this is due
to both the proposed multiple-view training and the new 3DVH dataset. The code
and the dataset can be found at the project website:
https://akincaliskan3d.github.io/MV3DH/.
- Abstract(参考訳): 本研究では,1枚の画像から3次元人物形状復元の精度を向上させる新しい手法を提案する。
最近の研究は、1つ以上の画像からオブジェクトや人々を再構築するためのボリューム、暗黙、およびモデルに基づく形状学習フレームワークを導入している。
しかし, 衣服, 髪型, 体型, ポーズ, カメラの見地から生じる形状の多様さから, 衣服の復元の正確さと完全性は限られている。
本稿では,この限界を克服するための2つの進歩について紹介する。まず3dvh,次に単眼容積形状推定の訓練のための新しい多視点損失関数により,一般化と再構成精度が著しく向上することを示す。
様々な自然背景でレンダリングされたリアルな3次元人間の3DVHデータセットは、人間の実際の画像から復元することを可能にする。
合成画像と実画像の両方における総合的比較性能評価の結果,提案手法は,前回の最先端学習に基づく3次元人体形状推定手法を有意に上回っており,復元精度,完全性,品質の大幅な向上が期待できることがわかった。
アブレーションによる研究によると、これは提案されたマルチビュートレーニングと新しい3DVHデータセットの両方に起因する。
コードとデータセットはプロジェクトのwebサイトにある。 https://akincaliskan3d.github.io/mv3dh/。
関連論文リスト
- SiTH: Single-view Textured Human Reconstruction with Image-Conditioned Diffusion [35.73448283467723]
SiTHは、イメージ条件付き拡散モデルと3Dメッシュ再構築ワークフローを統合する、新しいパイプラインである。
我々は、入力画像に基づいて、見えないバックビューの外観を幻覚させるために、強力な生成拡散モデルを用いる。
後者では,入力画像とバックビュー画像から全身のテクスチャメッシュを復元するためのガイダンスとして,肌付きボディーメッシュを利用する。
論文 参考訳(メタデータ) (2023-11-27T14:22:07Z) - Refining 3D Human Texture Estimation from a Single Image [3.8761064607384195]
1枚の画像から3次元の人間のテクスチャを推定することは、グラフィックと視覚に不可欠である。
本稿では,オフセットが深層ニューラルネットワークを介して学習される変形可能な畳み込みによって,入力を適応的にサンプリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T19:53:50Z) - TexPose: Neural Texture Learning for Self-Supervised 6D Object Pose
Estimation [55.94900327396771]
合成データから6次元オブジェクトポーズ推定のためのニューラルネットワークによるテクスチャ学習を提案する。
実画像からオブジェクトの現実的なテクスチャを予測することを学ぶ。
画素完全合成データからポーズ推定を学習する。
論文 参考訳(メタデータ) (2022-12-25T13:36:32Z) - ReFu: Refine and Fuse the Unobserved View for Detail-Preserving
Single-Image 3D Human Reconstruction [31.782985891629448]
シングルイメージの3次元再構成は,1枚の画像から人体の3次元テクスチャ面を再構築することを目的としている。
提案するReFuは、投影された背景像を精細化し、その精細な画像を融合して最終人体を予測するための粗大なアプローチである。
論文 参考訳(メタデータ) (2022-11-09T09:14:11Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - Multi-person Implicit Reconstruction from a Single Image [37.6877421030774]
本稿では,1つの画像から複数の人物の詳細な空間的コヒーレントな再構築を実現するための新しいエンドツーエンド学習フレームワークを提案する。
既存のマルチパーソンメソッドは、モデルベースで、ゆるい服と髪の人々の正確な3dモデルをキャプチャできないことが多いという、2つの大きな欠点を抱えている。
論文 参考訳(メタデータ) (2021-04-19T13:21:55Z) - Temporal Consistency Loss for High Resolution Textured and Clothed
3DHuman Reconstruction from Monocular Video [35.42021156572568]
本研究では,単眼映像から着衣者の時間的整合性3次元再構成を学習する新しい手法を提案する。
提案手法は,モノクロ映像からの3次元再構成とテクスチャ予測の時間的一貫性と精度を向上させる。
論文 参考訳(メタデータ) (2021-04-19T13:04:29Z) - Neural Descent for Visual 3D Human Pose and Shape [67.01050349629053]
入力RGB画像から3次元のポーズと形状を復元するディープニューラルネットワーク手法を提案する。
我々は最近導入された表現力のあるボディ統計モデルGHUMに頼っている。
我々の方法論の中心は、HUmanNeural Descent (HUND)と呼ばれるアプローチの学習と最適化である。
論文 参考訳(メタデータ) (2020-08-16T13:38:41Z) - SparseFusion: Dynamic Human Avatar Modeling from Sparse RGBD Images [49.52782544649703]
本稿では,RGBDフレームのスパース集合に基づく3次元人体形状の再構築手法を提案する。
主な課題は、これらのスパースフレームを標準的な3Dモデルにしっかりと融合させる方法だ。
私たちのフレームワークは柔軟で、潜在的なアプリケーションは形状の再構築を超えています。
論文 参考訳(メタデータ) (2020-06-05T18:53:36Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。