論文の概要: TexPro: Text-guided PBR Texturing with Procedural Material Modeling
- arxiv url: http://arxiv.org/abs/2410.15891v1
- Date: Mon, 21 Oct 2024 11:10:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:16:49.406387
- Title: TexPro: Text-guided PBR Texturing with Procedural Material Modeling
- Title(参考訳): TexPro: 手続き的材料モデリングによるテキスト誘導型PBRテクスチャ
- Authors: Ziqiang Dang, Wenqi Dong, Zesong Yang, Bangbang Yang, Liang Li, Yuewen Ma, Zhaopeng Cui,
- Abstract要約: TexProはテキストプロンプトを入力した3Dメッシュの高忠実度材料生成のための新しい手法である。
我々はまず,最新のテキスト・画像モデルを用いて入力されたテキスト・プロンプトからマルチビュー・リファレンス・イメージを生成する。
我々は最近の異なる手続き材料を用いたレンダリングに基づく最適化によりテクスチャマップを導出する。
- 参考スコア(独自算出の注目度): 23.8905505397344
- License:
- Abstract: In this paper, we present TexPro, a novel method for high-fidelity material generation for input 3D meshes given text prompts. Unlike existing text-conditioned texture generation methods that typically generate RGB textures with baked lighting, TexPro is able to produce diverse texture maps via procedural material modeling, which enables physical-based rendering, relighting, and additional benefits inherent to procedural materials. Specifically, we first generate multi-view reference images given the input textual prompt by employing the latest text-to-image model. We then derive texture maps through a rendering-based optimization with recent differentiable procedural materials. To this end, we design several techniques to handle the misalignment between the generated multi-view images and 3D meshes, and introduce a novel material agent that enhances material classification and matching by exploring both part-level understanding and object-aware material reasoning. Experiments demonstrate the superiority of the proposed method over existing SOTAs and its capability of relighting.
- Abstract(参考訳): 本稿では,テキストプロンプトを付与した入力3Dメッシュのための高忠実度材料生成手法であるTexProを提案する。
焼成照明でRGBテクスチャを生成する既存のテクスチャ生成方法とは異なり、TexProはプロシージャ素材モデリングによって多様なテクスチャマップを作成することができる。
具体的には,直近のテキスト・ツー・イメージモデルを用いて入力されたテキスト・プロンプトに基づいて,まずマルチビュー参照画像を生成する。
次に、最近の微分可能な手続き材料を用いたレンダリングに基づく最適化によりテクスチャマップを導出する。
そこで本研究では,生成した多視点画像と3Dメッシュのミスアライメントを扱うためのいくつかの手法を設計し,部分レベルの理解とオブジェクト対応の材料推論の両方を探索することにより,材料分類とマッチングを強化する新しい材料エージェントを提案する。
実験により,提案手法が既存のSOTAよりも優れていることを示すとともに,リライト能力を示す。
関連論文リスト
- TexGen: Text-Guided 3D Texture Generation with Multi-view Sampling and Resampling [37.67373829836975]
テクスチャ生成のための新しい多視点サンプリングおよび再サンプリングフレームワークであるTexGenを提案する。
提案手法は,高精細度3次元オブジェクトに対して,高精細度で優れたテクスチャ品質を実現する。
また,テクスチャ生成技術は,テクスチャ編集にも適用可能である。
論文 参考訳(メタデータ) (2024-08-02T14:24:40Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - MaPa: Text-driven Photorealistic Material Painting for 3D Shapes [80.66880375862628]
本稿では,テキスト記述から3次元メッシュの材料を作成することを目的とする。
テクスチャマップを合成する既存の方法とは異なり、我々はセグメントワイドな手続き的な材料グラフを生成することを提案する。
我々のフレームワークは高品質なレンダリングをサポートし、編集にかなりの柔軟性を提供します。
論文 参考訳(メタデータ) (2024-04-26T17:54:38Z) - MatAtlas: Text-driven Consistent Geometry Texturing and Material Assignment [11.721314027024547]
MatAtlasは、一貫したテキスト誘導3Dモデルのための方法である。
多段階のテクスチャリファインメントプロセスを提案することにより、品質と一貫性を著しく改善する。
論文 参考訳(メタデータ) (2024-04-03T17:57:15Z) - TexRO: Generating Delicate Textures of 3D Models by Recursive Optimization [54.59133974444805]
TexROは、UVテクスチャを最適化することで、既知の3Dメッシュの繊細なテクスチャを生成する新しい方法である。
テクスチャ品質,ディテール保存,視覚的一貫性,特に実行速度の観点から,TexROの優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-22T07:45:51Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - Text2Tex: Text-driven Texture Synthesis via Diffusion Models [31.773823357617093]
テキストプロンプトから3Dメッシュの質の高いテクスチャを生成する新しい方法であるText2Texを提案する。
多視点から高分解能な部分的テクスチャを段階的に合成するために,事前に学習した深度認識画像拡散モデルに塗料を塗布する。
論文 参考訳(メタデータ) (2023-03-20T19:02:13Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。