論文の概要: Photorealistic Monocular 3D Reconstruction of Humans Wearing Clothing
- arxiv url: http://arxiv.org/abs/2204.08906v1
- Date: Tue, 19 Apr 2022 14:06:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 14:22:30.609463
- Title: Photorealistic Monocular 3D Reconstruction of Humans Wearing Clothing
- Title(参考訳): 衣服着用者の光実物的3次元再構成
- Authors: Thiemo Alldieck, Mihai Zanfir, Cristian Sminchisescu
- Abstract要約: 我々は,単眼のRGB画像のみを付加したフォトリアリスティックな3次元人体再構成のための,新しいエンドツーエンドトレーニング可能なディープニューラルネットワーク手法PHORHUMを提案する。
我々の画素アライメント法は,3次元形状を詳細に推定し,非整形表面色とシーン照明を併用した。
- 参考スコア(独自算出の注目度): 41.34640834483265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present PHORHUM, a novel, end-to-end trainable, deep neural network
methodology for photorealistic 3D human reconstruction given just a monocular
RGB image. Our pixel-aligned method estimates detailed 3D geometry and, for the
first time, the unshaded surface color together with the scene illumination.
Observing that 3D supervision alone is not sufficient for high fidelity color
reconstruction, we introduce patch-based rendering losses that enable reliable
color reconstruction on visible parts of the human, and detailed and plausible
color estimation for the non-visible parts. Moreover, our method specifically
addresses methodological and practical limitations of prior work in terms of
representing geometry, albedo, and illumination effects, in an end-to-end model
where factors can be effectively disentangled. In extensive experiments, we
demonstrate the versatility and robustness of our approach. Our
state-of-the-art results validate the method qualitatively and for different
metrics, for both geometric and color reconstruction.
- Abstract(参考訳): 我々は,単眼のRGB画像のみを付加したフォトリアリスティックな3次元人体再構成のための,新しいエンドツーエンドトレーニング可能なディープニューラルネットワーク手法PHORHUMを提案する。
我々の画素アライメント法は,3次元形状を詳細に推定し,非整形表面色とシーン照明を併用した。
高忠実度色再現には3Dの監督だけでは不十分であることが確認され、人間の可視部における信頼性の高い色再構成を可能にするパッチベースのレンダリング損失を導入し、非可視部の詳細な色推定を行う。
さらに, 要素を効果的に絡み合うことができるエンドツーエンドモデルにおいて, 幾何学, アルベド, 照明効果の表現という観点から, 先行研究の方法論的, 実用的限界に特化している。
大規模な実験では、我々のアプローチの汎用性と堅牢性を示す。
この手法を幾何的, 異なる測定値に対して, 幾何的, 色再現の両面で検証した。
関連論文リスト
- ANIM: Accurate Neural Implicit Model for Human Reconstruction from a single RGB-D image [40.03212588672639]
ANIMは単視点RGB-D画像から任意の3次元形状を前例のない精度で再構成する新しい手法である。
我々のモデルは、深度情報を活用するためにピクセル整列とボクセル整列の両方の機能から幾何学的詳細を学習する。
実験によると、ANIMはRGB、表面正規、ポイントクラウド、RGB-Dデータを入力として使用する最先端の作業よりも優れている。
論文 参考訳(メタデータ) (2024-03-15T14:45:38Z) - Multi-View Neural Surface Reconstruction with Structured Light [7.709526244898887]
微分可能レンダリング(DR)に基づく3次元オブジェクト再構成はコンピュータビジョンにおいて活発な研究課題である。
DRに基づく多視点3Dオブジェクト再構成において,構造化光(SL)を用いたアクティブセンシングを導入し,任意のシーンやカメラポーズの未知の形状と外観を学習する。
本手法は, テクスチャレス領域における高い再現精度を実現し, カメラポーズキャリブレーションの労力を削減する。
論文 参考訳(メタデータ) (2022-11-22T03:10:46Z) - ReFu: Refine and Fuse the Unobserved View for Detail-Preserving
Single-Image 3D Human Reconstruction [31.782985891629448]
シングルイメージの3次元再構成は,1枚の画像から人体の3次元テクスチャ面を再構築することを目的としている。
提案するReFuは、投影された背景像を精細化し、その精細な画像を融合して最終人体を予測するための粗大なアプローチである。
論文 参考訳(メタデータ) (2022-11-09T09:14:11Z) - SIRA: Relightable Avatars from a Single Image [19.69326772087838]
SIRAは人間の頭部アバターを高忠実度な形状と分解光と表面材料で再構成する手法である。
我々の重要な要素は、単視点3次元表面再構成と外観分解のあいまいさを解消するニューラルネットワークに基づく2つのデータ駆動統計モデルである。
論文 参考訳(メタデータ) (2022-09-07T09:47:46Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - AvatarMe++: Facial Shape and BRDF Inference with Photorealistic
Rendering-Aware GANs [119.23922747230193]
そこで本研究では,レンダリング可能な3次元顔形状とBRDFの再構成を,単一の"in-the-wild"画像から実現した最初の手法を提案する。
本手法は,1枚の低解像度画像から,高解像度の3次元顔の再構成を行う。
論文 参考訳(メタデータ) (2021-12-11T11:36:30Z) - 3D Human Texture Estimation from a Single Image with Transformers [106.6320286821364]
単一画像からの3次元人間のテクスチャ推定のためのトランスフォーマーベースのフレームワークを提案する。
また,RGBモデルとテクスチャフローモデルを組み合わせたマスク融合方式を提案する。
論文 参考訳(メタデータ) (2021-09-06T16:00:20Z) - SIDER: Single-Image Neural Optimization for Facial Geometric Detail
Recovery [54.64663713249079]
SIDERは、教師なしの方法で単一の画像から詳細な顔形状を復元する新しい光度最適化手法である。
以前の作業とは対照的に、SIDERはデータセットの事前に依存せず、複数のビュー、照明変更、地上の真実の3D形状から追加の監視を必要としない。
論文 参考訳(メタデータ) (2021-08-11T22:34:53Z) - From Points to Multi-Object 3D Reconstruction [71.17445805257196]
単一のRGB画像から複数の3Dオブジェクトを検出し再構成する方法を提案する。
キーポイント検出器は、オブジェクトを中心点としてローカライズし、9-DoF境界ボックスや3D形状を含む全てのオブジェクト特性を直接予測する。
提示されたアプローチは、軽量な再構築を単一ステージで実行し、リアルタイム能力を持ち、完全に微分可能で、エンドツーエンドのトレーナーブルである。
論文 参考訳(メタデータ) (2020-12-21T18:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。