論文の概要: Registering Explicit to Implicit: Towards High-Fidelity Garment mesh
Reconstruction from Single Images
- arxiv url: http://arxiv.org/abs/2203.15007v1
- Date: Mon, 28 Mar 2022 18:13:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 14:02:22.334318
- Title: Registering Explicit to Implicit: Towards High-Fidelity Garment mesh
Reconstruction from Single Images
- Title(参考訳): 明示的に暗黙に登録する:単一画像からの高忠実な衣料メッシュ再構築に向けて
- Authors: Heming Zhu, Lingteng Qiu, Yuda Qiu, Xiaoguang Han
- Abstract要約: 暗黙的手法の一般的な問題は、衣服ごとに分離されたトポロジに一貫性のあるメッシュを生成できないことである。
画像から予測される全身暗黙のフィールドに明示的な衣服テンプレートを登録することにより、トポロジに一貫性のある衣服メッシュを再構築する新しい幾何学推論フレームワークReEFを提案する。
- 参考スコア(独自算出の注目度): 19.43767376835559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fueled by the power of deep learning techniques and implicit shape learning,
recent advances in single-image human digitalization have reached unprecedented
accuracy and could recover fine-grained surface details such as garment
wrinkles. However, a common problem for the implicit-based methods is that they
cannot produce separated and topology-consistent mesh for each garment piece,
which is crucial for the current 3D content creation pipeline. To address this
issue, we proposed a novel geometry inference framework ReEF that reconstructs
topology-consistent layered garment mesh by registering the explicit garment
template to the whole-body implicit fields predicted from single images.
Experiments demonstrate that our method notably outperforms its counterparts on
single-image layered garment reconstruction and could bring high-quality
digital assets for further content creation.
- Abstract(参考訳): 深層学習技術と暗黙的な形状学習の力によって、最近の画像のデジタル化の進歩は前例のない精度に達し、衣服のしわのようなきめ細かな表面の細部を復元することができる。
しかしながら、暗黙的手法の一般的な問題は、現在の3Dコンテンツ作成パイプラインにおいて不可欠である、各衣服に対して分離されたトポロジに一貫性のあるメッシュを生成できないことである。
この問題に対処するために,一画像から予測される全身暗黙フィールドに明示的な衣服テンプレートを登録することにより,トポロジに一貫性のある衣服メッシュを再構築する新しい幾何学推論フレームワークReEFを提案する。
実験により,本手法は,単像の層状衣料の再現において特に優れており,高品質なデジタル資産をコンテンツ制作に活用できることを示した。
関連論文リスト
- GarVerseLOD: High-Fidelity 3D Garment Reconstruction from a Single In-the-Wild Image using a Dataset with Levels of Details [21.959372614365908]
GarVerseLODは、1枚の制約のない画像から高忠実度3D衣服を復元する際、前例のない堅牢性を達成することを目的としている。
GarVerseLODは、プロのアーティストが手作業で作った精密な幾何学的な細部を持つ、高品質な布のモデル6000を収集する。
条件付き拡散モデルに基づく新しいラベリングパラダイムを提案する。
論文 参考訳(メタデータ) (2024-11-05T12:30:07Z) - HR Human: Modeling Human Avatars with Triangular Mesh and High-Resolution Textures from Videos [52.23323966700072]
本研究では,モノクロ映像から高精細な物理材料テクスチャとメッシュを付加したアバターの取得のための枠組みを提案する。
本手法では,モノクロ映像からの情報を組み合わせて仮想多視点画像の合成を行う新しい情報融合方式を提案する。
実験により, 提案手法は, 高忠実度で従来の表現よりも優れており, この明示的な結果は共通三角形への展開をサポートすることが示された。
論文 参考訳(メタデータ) (2024-05-18T11:49:09Z) - Semantic Image Translation for Repairing the Texture Defects of Building
Models [16.764719266178655]
本稿では, ファサードテクスチャ画像の合成手法を提案する。
提案手法は,既存のテクスチャを欠いたファッケードに対して,テクスチャイメージを特定のスタイルで合成することも可能である。
論文 参考訳(メタデータ) (2023-03-30T14:38:53Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Neural Template: Topology-aware Reconstruction and Disentangled
Generation of 3D Meshes [52.038346313823524]
本稿では,Distangled Topologyによる3次元メッシュ再構成と生成のためのDTNetという新しいフレームワークを提案する。
提案手法は,最先端の手法と比較して,特に多様なトポロジで高品質なメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-06-10T08:32:57Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z) - Deep Rectangling for Image Stitching: A Learning Baseline [57.76737888499145]
我々は不規則な境界やシーンに大きな多様性を持つ最初の画像縫合整形データセットを構築した。
実験では、従来の方法よりも定量的にも質的にも優位性を示す。
論文 参考訳(メタデータ) (2022-03-08T03:34:10Z) - SelfRecon: Self Reconstruction Your Digital Avatar from Monocular Video [48.23424267130425]
SelfReconは、単眼で回転する人間のビデオから、時空のコヒーレントなジオメトリを復元する。
明示的な方法は与えられたシーケンスに対して事前定義されたテンプレートメッシュを必要とするが、テンプレートは特定の対象に対して取得が難しい。
インプリシット法は任意の位相をサポートし、連続的な幾何学的表現により高品質である。
論文 参考訳(メタデータ) (2022-01-30T11:49:29Z) - Self-supervised High-fidelity and Re-renderable 3D Facial Reconstruction
from a Single Image [19.0074836183624]
そこで本研究では,高品質な3次元顔の再構築を目的とした,新たな自己教師型学習フレームワークを提案する。
我々のフレームワークは質的比較と量的比較の両方において最先端のアプローチを大幅に上回っている。
論文 参考訳(メタデータ) (2021-11-16T08:10:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。