論文の概要: StyleUV: Diverse and High-fidelity UV Map Generative Model
- arxiv url: http://arxiv.org/abs/2011.12893v1
- Date: Wed, 25 Nov 2020 17:19:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 03:40:51.214999
- Title: StyleUV: Diverse and High-fidelity UV Map Generative Model
- Title(参考訳): StyleUV: 多様性と高忠実度UVマップ生成モデル
- Authors: Myunggi Lee, Wonwoong Cho, Moonheum Kim, David Inouye, Nojun Kwak
- Abstract要約: 本稿では,高品質なUVマップを訓練に必要とせず,多種多様なリアルなUVマップを生成することを学習する新しいUVマップ生成モデルを提案する。
定量的および定性的な評価は,提案したテクスチャモデルが既存手法よりも多様性が高く,忠実度の高いテクスチャを生成することを示すものである。
- 参考スコア(独自算出の注目度): 24.982824840625216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing 3D human faces in the wild with the 3D Morphable Model (3DMM)
has become popular in recent years. While most prior work focuses on estimating
more robust and accurate geometry, relatively little attention has been paid to
improving the quality of the texture model. Meanwhile, with the advent of
Generative Adversarial Networks (GANs), there has been great progress in
reconstructing realistic 2D images. Recent work demonstrates that GANs trained
with abundant high-quality UV maps can produce high-fidelity textures superior
to those produced by existing methods. However, acquiring such high-quality UV
maps is difficult because they are expensive to acquire, requiring laborious
processes to refine. In this work, we present a novel UV map generative model
that learns to generate diverse and realistic synthetic UV maps without
requiring high-quality UV maps for training. Our proposed framework can be
trained solely with in-the-wild images (i.e., UV maps are not required) by
leveraging a combination of GANs and a differentiable renderer. Both
quantitative and qualitative evaluations demonstrate that our proposed texture
model produces more diverse and higher fidelity textures compared to existing
methods.
- Abstract(参考訳): 近年,3次元形態モデル(3DMM)による野生の3次元顔の再構築が盛んである。
多くの先行研究は、より堅牢で正確な幾何学を推定することに焦点を当てているが、テクスチャモデルの品質向上には比較的注意が払われている。
一方,GAN (Generative Adversarial Networks) の出現により,現実的な2次元画像の再構築に大きな進展が見られた。
近年の研究では、豊富な高品質なUVマップで訓練されたGANが、既存の方法よりも優れた高忠実なテクスチャを生成できることが示されている。
しかし、このような高品質な紫外線マップの取得は、高額であり、精巧なプロセスを必要とするため困難である。
本研究では,高品質なUVマップを訓練に必要とせず,多様なリアルなUVマップを生成することを学習する新しいUVマップ生成モデルを提案する。
提案するフレームワークは,ganと微分可能なレンダラの組み合わせを活用することで,wildイメージ(uvマップは不要)のみでトレーニングすることができる。
定量的および定性的な評価は,提案したテクスチャモデルが既存手法よりも多様性が高く,忠実度の高いテクスチャを生成することを示す。
関連論文リスト
- UVMap-ID: A Controllable and Personalized UV Map Generative Model [67.71022515856653]
制御可能でパーソナライズされたUVマップ生成モデルであるUVMap-IDを導入する。
従来の2次元の大規模学習法とは異なり,本研究では,事前学習したテキスト・画像拡散モデルの微調整を提案する。
定量的および定性的な解析は、制御可能でパーソナライズされたUVマップ生成における本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-04-22T20:30:45Z) - Nuvo: Neural UV Mapping for Unruly 3D Representations [61.87715912587394]
既存のUVマッピングアルゴリズムは、最先端の3D再構成と生成技術によって生成された幾何学で動作する。
本稿では,3次元再構成と生成技術により生成された幾何学的手法を用いたUVマッピング手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T18:58:38Z) - Breathing New Life into 3D Assets with Generative Repainting [74.80184575267106]
拡散ベースのテキスト・ツー・イメージ・モデルは、ビジョン・コミュニティ、アーティスト、コンテンツ・クリエーターから大きな注目を集めた。
近年の研究では、拡散モデルとニューラルネットワークの絡み合いを利用した様々なパイプラインが提案されている。
予備訓練された2次元拡散モデルと標準3次元ニューラルラジアンスフィールドのパワーを独立したスタンドアロンツールとして検討する。
我々のパイプラインはテクスチャ化されたメッシュや無テクスチャのメッシュのような、レガシなレンダリング可能な幾何学を受け入れ、2D生成の洗練と3D整合性強化ツール間の相互作用をオーケストレーションします。
論文 参考訳(メタデータ) (2023-09-15T16:34:51Z) - Texture Generation on 3D Meshes with Point-UV Diffusion [86.69672057856243]
本稿では, 粗い微細化パイプラインであるPoint-UV拡散モデルとUVマッピングを併用し, 高品質なテクスチャイメージをUV空間で生成する。
本手法は,任意の属のメッシュを処理し,多種多様で,幾何に適合し,高忠実度なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-21T06:20:54Z) - FFHQ-UV: Normalized Facial UV-Texture Dataset for 3D Face Reconstruction [46.3392612457273]
このデータセットには、5万以上の高品質なテクスチャUVマップが含まれており、照度、中性表現、クリーンな顔領域がある。
我々のパイプラインは、StyleGANベースの顔画像編集アプローチの最近の進歩を活用している。
実験により,本手法は最先端手法よりも再現精度が向上することが示された。
論文 参考訳(メタデータ) (2022-11-25T03:21:05Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z) - Weakly-Supervised Photo-realistic Texture Generation for 3D Face
Reconstruction [48.952656891182826]
高忠実度3D顔テクスチャ生成についてはまだ研究されていない。
モデルはUVサンプリング器とUVジェネレータで構成される。
トレーニングは、3DMMテクスチャと入力顔テクスチャでブレンドされた擬似地上真実に基づいている。
論文 参考訳(メタデータ) (2021-06-14T12:34:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。