論文の概要: TexSpot: 3D Texture Enhancement with Spatially-uniform Point Latent Representation
- arxiv url: http://arxiv.org/abs/2602.12157v2
- Date: Sat, 14 Feb 2026 15:54:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:27.741124
- Title: TexSpot: 3D Texture Enhancement with Spatially-uniform Point Latent Representation
- Title(参考訳): TexSpot:空間的一様遅延表現を用いた3次元テクスチャ強調
- Authors: Ziteng Lu, Yushuang Wu, Chongjie Ye, Yuda Qiu, Jing Shao, Xiaoyang Guo, Jiaqing Zhou, Tianlei Hu, Kun Zhou, Xiaoguang Han,
- Abstract要約: 拡散型テクスチャ強化フレームワークであるTexSpotを紹介する。
中心となるのは、新しい3Dテクスチャ表現であるTexletである。
ケースド3Dから2Dデコーダは高品質なテクスチャパッチを再構成する。
- 参考スコア(独自算出の注目度): 47.87566902467006
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: High-quality 3D texture generation remains a fundamental challenge due to the view-inconsistency inherent in current mainstream multi-view diffusion pipelines. Existing representations either rely on UV maps, which suffer from distortion during unwrapping, or point-based methods, which tightly couple texture fidelity to geometric density that limits high-resolution texture generation. To address these limitations, we introduce TexSpot, a diffusion-based texture enhancement framework. At its core is Texlet, a novel 3D texture representation that merges the geometric expressiveness of point-based 3D textures with the compactness of UV-based representation. Each Texlet latent vector encodes a local texture patch via a 2D encoder and is further aggregated using a 3D encoder to incorporate global shape context. A cascaded 3D-to-2D decoder reconstructs high-quality texture patches, enabling the Texlet space learning. Leveraging this representation, we train a diffusion transformer conditioned on Texlets to refine and enhance textures produced by multi-view diffusion methods. Extensive experiments demonstrate that TexSpot significantly improves visual fidelity, geometric consistency, and robustness over existing state-of-the-art 3D texture generation and enhancement approaches. Project page: https://texlet-arch.github.io/TexSpot-page.
- Abstract(参考訳): 高品質な3Dテクスチャ生成は、現在の主流のマルチビュー拡散パイプラインに固有のビュー一貫性のため、依然として根本的な課題である。
既存の表現は、アンラッピング中の歪みに悩まされるUVマップや、高分解能なテクスチャ生成を制限する幾何密度にテクスチャの忠実度を密結合するポイントベースの手法に依存している。
これらの制約に対処するため,拡散型テクスチャ強化フレームワークであるTexSpotを導入する。
中心となる3Dテクスチャ表現であるTexletは、点ベースの3Dテクスチャの幾何学的表現性とUVベースの表現のコンパクトさを融合させる新しい3Dテクスチャ表現である。
各テクスレット潜伏ベクトルは、2Dエンコーダを介して局所的なテクスチャパッチを符号化し、3Dエンコーダを用いてさらに集約してグローバルな形状コンテキストを組み込む。
カスケードされた3D-to-2Dデコーダは高品質なテクスチャパッチを再構成し、テクスレット空間学習を可能にする。
この表現を活用して,マルチビュー拡散法により生成したテクスチャを洗練・強化するために,テクスレット上に条件付き拡散トランスフォーマーを訓練する。
大規模な実験により、TexSpotは既存の最先端の3Dテクスチャ生成と強化アプローチに対して、視覚的忠実度、幾何的一貫性、堅牢性を大幅に改善することが示された。
プロジェクトページ: https://texlet-arch.github.io/TexSpot-page
関連論文リスト
- LaFiTe: A Generative Latent Field for 3D Native Texturing [72.05710323154288]
既存のネイティブアプローチは、その生成したテクスチャの忠実さと一般性を著しく制限する、強力で多目的な表現が欠如しているため、疎外である。
粗い色表現と紫外パラメータ化によって制約された高品質なテクスチャを生成するLaFiTeを紹介する。
論文 参考訳(メタデータ) (2025-12-04T13:33:49Z) - TEXTRIX: Latent Attribute Grid for Native Texture Generation and Beyond [42.93031959503468]
TEXTRIXは、高忠実なテクスチャ合成と下流アプリケーションのためのネイティブな3D属性生成フレームワークである。
提案手法は遅延型3D属性グリッドを構築し, スパースアテンションを備えた拡散変圧器を利用する。
このネイティブ表現に基づいて構築されたこのフレームワークは、グリッド上のセマンティック属性を予測するために同じアーキテクチャをトレーニングすることで、自然に高精度な3Dセグメンテーションに拡張する。
論文 参考訳(メタデータ) (2025-12-02T18:18:20Z) - SeqTex: Generate Mesh Textures in Video Sequence [62.766839821764144]
本稿では3次元テクスチャ生成モデルのトレーニングのための新しいエンドツーエンドフレームワークであるSeqTexを紹介する。
画像条件とテキスト条件の両テクスチャ生成タスクにおいて,SeqTexは最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-07-06T07:58:36Z) - UniTEX: Universal High Fidelity Generative Texturing for 3D Shapes [35.667175445637604]
二段階テクスチャ生成フレームワークUniTEXを提案する。
UniTEXは、既存のアプローチに比べて視覚的品質とテクスチャの整合性が優れている。
論文 参考訳(メタデータ) (2025-05-29T08:58:41Z) - TEXGen: a Generative Diffusion Model for Mesh Textures [63.43159148394021]
我々は、UVテクスチャ空間自体における学習の根本的な問題に焦点を当てる。
本稿では,点クラウド上にアテンション層を持つUVマップ上の畳み込みをインターリーブするスケーラブルなネットワークアーキテクチャを提案する。
テキストプロンプトとシングルビュー画像によって導かれるUVテクスチャマップを生成する7億のパラメータ拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-11-22T05:22:11Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。