論文の概要: Texture Generation on 3D Meshes with Point-UV Diffusion
- arxiv url: http://arxiv.org/abs/2308.10490v1
- Date: Mon, 21 Aug 2023 06:20:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 14:59:30.791682
- Title: Texture Generation on 3D Meshes with Point-UV Diffusion
- Title(参考訳): 点紫外拡散を伴う3次元メッシュのテクスチャ生成
- Authors: Xin Yu, Peng Dai, Wenbo Li, Lan Ma, Zhengzhe Liu, Xiaojuan Qi
- Abstract要約: 本稿では, 粗い微細化パイプラインであるPoint-UV拡散モデルとUVマッピングを併用し, 高品質なテクスチャイメージをUV空間で生成する。
本手法は,任意の属のメッシュを処理し,多種多様で,幾何に適合し,高忠実度なテクスチャを生成する。
- 参考スコア(独自算出の注目度): 86.69672057856243
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we focus on synthesizing high-quality textures on 3D meshes. We
present Point-UV diffusion, a coarse-to-fine pipeline that marries the
denoising diffusion model with UV mapping to generate 3D consistent and
high-quality texture images in UV space. We start with introducing a point
diffusion model to synthesize low-frequency texture components with our
tailored style guidance to tackle the biased color distribution. The derived
coarse texture offers global consistency and serves as a condition for the
subsequent UV diffusion stage, aiding in regularizing the model to generate a
3D consistent UV texture image. Then, a UV diffusion model with hybrid
conditions is developed to enhance the texture fidelity in the 2D UV space. Our
method can process meshes of any genus, generating diversified,
geometry-compatible, and high-fidelity textures. Code is available at
https://cvmi-lab.github.io/Point-UV-Diffusion
- Abstract(参考訳): 本研究では,3次元メッシュ上での高品質なテクスチャの合成に着目する。
本稿では, 粗大化拡散モデルとUVマッピングをマージし, 3次元一貫した高画質なテクスチャ画像を生成する, 粗大化拡散パイプラインであるPoint-UV拡散について述べる。
まず,低周波テクスチャ成分を合成する点拡散モデルと,偏りのある色分布に取り組むための仕立て型指導について紹介する。
得られた粗いテクスチャは、大域的な一貫性を提供し、その後のUV拡散ステージの条件として機能し、モデルの正規化を支援して3次元一貫したUVテクスチャ画像を生成する。
次に,2次元uv空間のテクスチャ忠実性を高めるために,ハイブリッド条件のuv拡散モデルを開発した。
本手法は,任意の種類のメッシュを処理し,多角的,幾何学的,高忠実なテクスチャを生成する。
コードはhttps://cvmi-lab.github.io/Point-UV-Diffusionで入手できる。
関連論文リスト
- TEXGen: a Generative Diffusion Model for Mesh Textures [63.43159148394021]
我々は、UVテクスチャ空間自体における学習の根本的な問題に焦点を当てる。
本稿では,点クラウド上にアテンション層を持つUVマップ上の畳み込みをインターリーブするスケーラブルなネットワークアーキテクチャを提案する。
テキストプロンプトとシングルビュー画像によって導かれるUVテクスチャマップを生成する7億のパラメータ拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-11-22T05:22:11Z) - UV-free Texture Generation with Denoising and Geodesic Heat Diffusions [50.55154348768031]
メッシュの標準的なUVベースの処理機構の最も顕著な課題は、シーム、無駄なUV空間、および表面上の様々な解像度である。
本稿では,3次元メッシュの表面上での操作に制約された拡散モデルを用いて,テクスチャを色分けした点雲色として表現することを提案する。
論文 参考訳(メタデータ) (2024-08-29T17:57:05Z) - UVMap-ID: A Controllable and Personalized UV Map Generative Model [67.71022515856653]
制御可能でパーソナライズされたUVマップ生成モデルであるUVMap-IDを導入する。
従来の2次元の大規模学習法とは異なり,本研究では,事前学習したテキスト・画像拡散モデルの微調整を提案する。
定量的および定性的な解析は、制御可能でパーソナライズされたUVマップ生成における本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-04-22T20:30:45Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - TUVF: Learning Generalizable Texture UV Radiance Fields [32.417062841312976]
本研究では,3次元形状に直接依存するのではなく,学習可能なUV空間内でテクスチャを生成するテクスチャUVF(Texture UV Radiance Fields)を提案する。
TUVFは、テクスチャを下層の形状から切り離し、同じUV空間を共有する他の形状に転送することを可能にする。
合成および実世界のオブジェクトデータセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-04T17:58:05Z) - FFHQ-UV: Normalized Facial UV-Texture Dataset for 3D Face Reconstruction [46.3392612457273]
このデータセットには、5万以上の高品質なテクスチャUVマップが含まれており、照度、中性表現、クリーンな顔領域がある。
我々のパイプラインは、StyleGANベースの顔画像編集アプローチの最近の進歩を活用している。
実験により,本手法は最先端手法よりも再現精度が向上することが示された。
論文 参考訳(メタデータ) (2022-11-25T03:21:05Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。