論文の概要: NaTex: Seamless Texture Generation as Latent Color Diffusion
- arxiv url: http://arxiv.org/abs/2511.16317v1
- Date: Thu, 20 Nov 2025 12:47:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.622405
- Title: NaTex: Seamless Texture Generation as Latent Color Diffusion
- Title(参考訳): NaTex: 潜在色拡散としてのシームレステクスチャ生成
- Authors: Zeqiang Lai, Yunfei Zhao, Zibo Zhao, Xin Yang, Xin Huang, Jingwei Huang, Xiangyu Yue, Chunchao Guo,
- Abstract要約: 本研究では,3次元空間で直接テクスチャ色を予測するネイティブテクスチャ生成フレームワークNaTexを提案する。
NaTexはMVDパイプラインに固有のいくつかの制限を避ける。
- 参考スコア(独自算出の注目度): 23.99275629136662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present NaTex, a native texture generation framework that predicts texture color directly in 3D space. In contrast to previous approaches that rely on baking 2D multi-view images synthesized by geometry-conditioned Multi-View Diffusion models (MVDs), NaTex avoids several inherent limitations of the MVD pipeline. These include difficulties in handling occluded regions that require inpainting, achieving precise mesh-texture alignment along boundaries, and maintaining cross-view consistency and coherence in both content and color intensity. NaTex features a novel paradigm that addresses the aforementioned issues by viewing texture as a dense color point cloud. Driven by this idea, we propose latent color diffusion, which comprises a geometry-awared color point cloud VAE and a multi-control diffusion transformer (DiT), entirely trained from scratch using 3D data, for texture reconstruction and generation. To enable precise alignment, we introduce native geometry control that conditions the DiT on direct 3D spatial information via positional embeddings and geometry latents. We co-design the VAE-DiT architecture, where the geometry latents are extracted via a dedicated geometry branch tightly coupled with the color VAE, providing fine-grained surface guidance that maintains strong correspondence with the texture. With these designs, NaTex demonstrates strong performance, significantly outperforming previous methods in texture coherence and alignment. Moreover, NaTex also exhibits strong generalization capabilities, either training-free or with simple tuning, for various downstream applications, e.g., material generation, texture refinement, and part segmentation and texturing.
- Abstract(参考訳): 本研究では,3次元空間で直接テクスチャ色を予測するネイティブテクスチャ生成フレームワークNaTexを提案する。
幾何条件付き多視点拡散モデル(MVD)によって合成された2次元多視点画像を焼く従来のアプローチとは対照的に、NaTexはMVDパイプラインに固有のいくつかの制限を回避している。
これらには、塗装を必要とする隠蔽領域の扱いの困難、境界に沿って正確なメッシュとテクスチャのアライメントを達成すること、コンテンツと色の強度の両方において、相互の一貫性と一貫性を維持することが含まれる。
NaTexは、上記の問題に対処する新しいパラダイムを特徴とし、テクスチャを濃密な色点雲として見る。
このアイデアを駆使して,テクスチャ再構築と生成のための3次元データを用いてスクラッチから完全に訓練された幾何学的色点雲VAEと多制御拡散変換器(DiT)からなる潜色拡散を提案する。
正確なアライメントを実現するために、位置埋め込みと幾何学ラテントを用いて直接3次元空間情報にDiTを条件付けるネイティブジオメトリ制御を導入する。
我々は、VAE-DiTアーキテクチャを共同設計し、色VAEと密結合した専用の幾何学枝を通して幾何学ラテントを抽出し、テクスチャとの強い対応を維持するためのきめ細かい表面ガイダンスを提供する。
これらの設計により、NaTexは強力な性能を示し、テクスチャのコヒーレンスとアライメントにおいて従来の方法よりも大幅に優れていた。
さらに、NaTexは、トレーニング不要または単純なチューニングを備えた、さまざまな下流アプリケーション、例えば、材料生成、テクスチャの洗練、部分分割とテクスチャ作成のための強力な一般化機能も備えている。
関連論文リスト
- AvatarTex: High-Fidelity Facial Texture Reconstruction from Single-Image Stylized Avatars [16.44346662761451]
AvatarTexは、顔のテクスチャを再構築するフレームワークで、単一の画像からスタイリングされたテクスチャとフォトリアリスティックなテクスチャの両方を生成することができる。
筆者らの3段階パイプラインは,まず拡散型塗り絵によるテクスチャ領域の欠如,GANによる潜時最適化によるスタイルと構造整合性の改善,拡散型塗り絵による細部細部の改善などを行った。
スタイル化されたテクスチャデータセットの必要性に対処するために,正確なUV整列レイアウトを備えた20,000のマルチスタイルUVテクスチャの高解像度コレクションであるTexHubを紹介した。
論文 参考訳(メタデータ) (2025-11-10T05:31:15Z) - SeqTex: Generate Mesh Textures in Video Sequence [62.766839821764144]
本稿では3次元テクスチャ生成モデルのトレーニングのための新しいエンドツーエンドフレームワークであるSeqTexを紹介する。
画像条件とテキスト条件の両テクスチャ生成タスクにおいて,SeqTexは最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-07-06T07:58:36Z) - UniTEX: Universal High Fidelity Generative Texturing for 3D Shapes [35.667175445637604]
二段階テクスチャ生成フレームワークUniTEXを提案する。
UniTEXは、既存のアプローチに比べて視覚的品質とテクスチャの整合性が優れている。
論文 参考訳(メタデータ) (2025-05-29T08:58:41Z) - RomanTex: Decoupling 3D-aware Rotary Positional Embedded Multi-Attention Network for Texture Synthesis [10.350576861948952]
RomanTexはマルチビューベースのテクスチャ生成フレームワークで、マルチアテンションネットワークと基礎となる3D表現を統合している。
本手法はテクスチャの品質と整合性を実現する。
論文 参考訳(メタデータ) (2025-03-24T17:56:11Z) - TriTex: Learning Texture from a Single Mesh via Triplane Semantic Features [78.13246375582906]
本研究では,1つのテクスチャメッシュから体積テクスチャ場を学習し,セマンティックな特徴を対象色にマッピングする手法を提案する。
本手法は,ゲーム開発などのアプリケーションにおいて,3次元モデル間で優れたテクスチャ品質を実現する。
論文 参考訳(メタデータ) (2025-03-20T18:35:03Z) - Pandora3D: A Comprehensive Framework for High-Quality 3D Shape and Texture Generation [56.862552362223425]
本稿では,多様な入力プロンプトから高品質な3次元形状とテクスチャを生成するための包括的枠組みを提案する。
フレームワークは3次元形状生成とテクスチャ生成で構成されている。
本報告では,フレームワークの改良と拡張に向けたシステムアーキテクチャ,実験結果,今後の方向性について述べる。
論文 参考訳(メタデータ) (2025-02-20T04:22:30Z) - SceneTex: High-Quality Texture Synthesis for Indoor Scenes via Diffusion
Priors [49.03627933561738]
SceneTexは、奥行き拡散前処理を用いた室内シーンの高品質でスタイルに一貫性のあるテクスチャを生成する新しい方法である。
SceneTexは3D-FRONTシーンの様々な正確なテクスチャ合成を可能にする。
論文 参考訳(メタデータ) (2023-11-28T22:49:57Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。