論文の概要: LaFiTe: A Generative Latent Field for 3D Native Texturing
- arxiv url: http://arxiv.org/abs/2512.04786v1
- Date: Thu, 04 Dec 2025 13:33:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.185064
- Title: LaFiTe: A Generative Latent Field for 3D Native Texturing
- Title(参考訳): LaFiTe: 3Dネイティブテクスチャのためのジェネレーティブラテントフィールド
- Authors: Chia-Hao Chen, Zi-Xin Zou, Yan-Pei Cao, Ze Yuan, Guan Luo, Xiaojuan Qi, Ding Liang, Song-Hai Zhang, Yuan-Chen Guo,
- Abstract要約: 既存のネイティブアプローチは、その生成したテクスチャの忠実さと一般性を著しく制限する、強力で多目的な表現が欠如しているため、疎外である。
粗い色表現と紫外パラメータ化によって制約された高品質なテクスチャを生成するLaFiTeを紹介する。
- 参考スコア(独自算出の注目度): 72.05710323154288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating high-fidelity, seamless textures directly on 3D surfaces, what we term 3D-native texturing, remains a fundamental open challenge, with the potential to overcome long-standing limitations of UV-based and multi-view projection methods. However, existing native approaches are constrained by the absence of a powerful and versatile latent representation, which severely limits the fidelity and generality of their generated textures. We identify this representation gap as the principal barrier to further progress. We introduce LaFiTe, a framework that addresses this challenge by learning to generate textures as a 3D generative sparse latent color field. At its core, LaFiTe employs a variational autoencoder (VAE) to encode complex surface appearance into a sparse, structured latent space, which is subsequently decoded into a continuous color field. This representation achieves unprecedented fidelity, exceeding state-of-the-art methods by >10 dB PSNR in reconstruction, by effectively disentangling texture appearance from mesh topology and UV parameterization. Building upon this strong representation, a conditional rectified-flow model synthesizes high-quality, coherent textures across diverse styles and geometries. Extensive experiments demonstrate that LaFiTe not only sets a new benchmark for 3D-native texturing but also enables flexible downstream applications such as material synthesis and texture super-resolution, paving the way for the next generation of 3D content creation workflows.
- Abstract(参考訳): 高忠実でシームレスなテクスチャを3次元表面に直接生成する3Dネイティブテクスチャは、UVベースおよびマルチビュープロジェクションの長期的制限を克服する可能性を秘め、根本的なオープンな課題である。
しかし、既存のネイティブアプローチは強力で汎用的な潜在表現がないために制約を受けており、それによって生成されたテクスチャの忠実さと一般性を著しく制限している。
我々は、この表現ギャップをさらなる進歩の主障壁とみなす。
本稿では,この課題に対処するフレームワークであるLaFiTeを紹介する。
中心となるLaFiTeは、可変オートエンコーダ(VAE)を使用して、複雑な表面の外観をスパースで構造化されたラテント空間にエンコードし、後に連続的なカラーフィールドにデコードする。
この表現は、メッシュトポロジーや紫外線パラメータ化からテクスチャの外観を効果的に切り離すことで、10dBのPSNRによる最先端の手法を超える前例のない忠実性を達成している。
この強い表現に基づいて、条件付き整流モデルが、様々なスタイルや幾何学にわたって高品質でコヒーレントなテクスチャを合成する。
大規模な実験により、LaFiTeは3Dネイティブなテクスチャの新しいベンチマークを設定するだけでなく、素材合成やテクスチャ超解像といった柔軟な下流アプリケーションを可能にし、次世代の3Dコンテンツ作成ワークフローへの道を開いた。
関連論文リスト
- TEXTRIX: Latent Attribute Grid for Native Texture Generation and Beyond [42.93031959503468]
TEXTRIXは、高忠実なテクスチャ合成と下流アプリケーションのためのネイティブな3D属性生成フレームワークである。
提案手法は遅延型3D属性グリッドを構築し, スパースアテンションを備えた拡散変圧器を利用する。
このネイティブ表現に基づいて構築されたこのフレームワークは、グリッド上のセマンティック属性を予測するために同じアーキテクチャをトレーニングすることで、自然に高精度な3Dセグメンテーションに拡張する。
論文 参考訳(メタデータ) (2025-12-02T18:18:20Z) - A Scalable Attention-Based Approach for Image-to-3D Texture Mapping [3.8476192001237597]
高品質なテクスチャは、リアルな3Dコンテンツ作成に不可欠です。
既存の生成法は遅く、紫外線マップに依存しており、しばしば参照画像に忠実に保たない。
本稿では,1つの画像とメッシュから直接3次元テクスチャ場を予測するトランスフォーマーベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-05T14:18:52Z) - SeqTex: Generate Mesh Textures in Video Sequence [62.766839821764144]
本稿では3次元テクスチャ生成モデルのトレーニングのための新しいエンドツーエンドフレームワークであるSeqTexを紹介する。
画像条件とテキスト条件の両テクスチャ生成タスクにおいて,SeqTexは最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-07-06T07:58:36Z) - UniTEX: Universal High Fidelity Generative Texturing for 3D Shapes [35.667175445637604]
二段階テクスチャ生成フレームワークUniTEXを提案する。
UniTEXは、既存のアプローチに比べて視覚的品質とテクスチャの整合性が優れている。
論文 参考訳(メタデータ) (2025-05-29T08:58:41Z) - RomanTex: Decoupling 3D-aware Rotary Positional Embedded Multi-Attention Network for Texture Synthesis [10.350576861948952]
RomanTexはマルチビューベースのテクスチャ生成フレームワークで、マルチアテンションネットワークと基礎となる3D表現を統合している。
本手法はテクスチャの品質と整合性を実現する。
論文 参考訳(メタデータ) (2025-03-24T17:56:11Z) - Pandora3D: A Comprehensive Framework for High-Quality 3D Shape and Texture Generation [56.862552362223425]
本稿では,多様な入力プロンプトから高品質な3次元形状とテクスチャを生成するための包括的枠組みを提案する。
フレームワークは3次元形状生成とテクスチャ生成で構成されている。
本報告では,フレームワークの改良と拡張に向けたシステムアーキテクチャ,実験結果,今後の方向性について述べる。
論文 参考訳(メタデータ) (2025-02-20T04:22:30Z) - GaussianAnything: Interactive Point Cloud Flow Matching For 3D Object Generation [75.39457097832113]
本稿では,インタラクティブなポイントクラウド構造ラテント空間を備えたスケーラブルで高品質な3D生成を実現する,新しい3D生成フレームワークを提案する。
本フレームワークでは,複数ビューのRGB-D(epth)-N(ormal)レンダリングを入力として使用する変分オートエンコーダを,3次元形状情報を保存する独自のラテント空間設計を用いて構成する。
提案手法であるGaussianAnythingは,複数モード条件付き3D生成をサポートし,ポイントクラウド,キャプション,単一画像入力を可能にする。
論文 参考訳(メタデータ) (2024-11-12T18:59:32Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。