論文の概要: SeqTex: Generate Mesh Textures in Video Sequence
- arxiv url: http://arxiv.org/abs/2507.04285v1
- Date: Sun, 06 Jul 2025 07:58:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.101535
- Title: SeqTex: Generate Mesh Textures in Video Sequence
- Title(参考訳): SeqTex:ビデオシーケンスでメッシュテクスチャを生成する
- Authors: Ze Yuan, Xin Yu, Yangtian Sun, Yuan-Chen Guo, Yan-Pei Cao, Ding Liang, Xiaojuan Qi,
- Abstract要約: 本稿では3次元テクスチャ生成モデルのトレーニングのための新しいエンドツーエンドフレームワークであるSeqTexを紹介する。
画像条件とテキスト条件の両テクスチャ生成タスクにおいて,SeqTexは最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 62.766839821764144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training native 3D texture generative models remains a fundamental yet challenging problem, largely due to the limited availability of large-scale, high-quality 3D texture datasets. This scarcity hinders generalization to real-world scenarios. To address this, most existing methods finetune foundation image generative models to exploit their learned visual priors. However, these approaches typically generate only multi-view images and rely on post-processing to produce UV texture maps -- an essential representation in modern graphics pipelines. Such two-stage pipelines often suffer from error accumulation and spatial inconsistencies across the 3D surface. In this paper, we introduce SeqTex, a novel end-to-end framework that leverages the visual knowledge encoded in pretrained video foundation models to directly generate complete UV texture maps. Unlike previous methods that model the distribution of UV textures in isolation, SeqTex reformulates the task as a sequence generation problem, enabling the model to learn the joint distribution of multi-view renderings and UV textures. This design effectively transfers the consistent image-space priors from video foundation models into the UV domain. To further enhance performance, we propose several architectural innovations: a decoupled multi-view and UV branch design, geometry-informed attention to guide cross-domain feature alignment, and adaptive token resolution to preserve fine texture details while maintaining computational efficiency. Together, these components allow SeqTex to fully utilize pretrained video priors and synthesize high-fidelity UV texture maps without the need for post-processing. Extensive experiments show that SeqTex achieves state-of-the-art performance on both image-conditioned and text-conditioned 3D texture generation tasks, with superior 3D consistency, texture-geometry alignment, and real-world generalization.
- Abstract(参考訳): ネイティブな3Dテクスチャ生成モデルのトレーニングは、大規模で高品質な3Dテクスチャデータセットの可用性が限られているため、基本的には難しい問題である。
この不足は現実のシナリオへの一般化を妨げる。
これを解決するために、既存のほとんどの手法は、学習した視覚的先行性を活用するために基礎画像生成モデルを微調整する。
しかしながら、これらのアプローチは一般的にマルチビューイメージのみを生成し、ポストプロセッシングに依存してUVテクスチャマップを生成する。
このような2段階のパイプラインは、しばしば3次元表面の誤差の蓄積と空間的不整合に悩まされる。
本稿では,事前学習ビデオ基盤モデルに符号化された視覚的知識を利用して,完全なUVテクスチャマップを直接生成する,新しいエンドツーエンドフレームワークであるSeqTexを紹介する。
分離されたUVテクスチャの分布をモデル化する従来の方法とは異なり、SeqTexはタスクをシーケンス生成問題として再構成し、マルチビューレンダリングとUVテクスチャの共分散を学習できるようにする。
この設計は、一貫した画像空間の先行をビデオファンデーションモデルからUVドメインに効果的に転送する。
さらに性能向上のために, 分割多重ビューとUV分岐設計, ドメイン間特徴アライメントを案内する幾何学的インフォームメント, 微視的なテクスチャを保存し, 計算効率を向上するアダプティブトークンの解決などが提案されている。
これらのコンポーネントを組み合わせることで、SeqTexは事前訓練されたビデオの事前処理を完全に活用し、後処理を必要とせずに高忠実なUVテクスチャマップを合成できる。
広汎な実験により,SeqTexは3次元の整合性,テクスチャ・ジオメトリアライメント,実世界の一般化といった,画像条件およびテキスト条件の両テクスチャ生成タスクにおいて最先端の性能を達成することが示された。
関連論文リスト
- UniTEX: Universal High Fidelity Generative Texturing for 3D Shapes [35.667175445637604]
二段階テクスチャ生成フレームワークUniTEXを提案する。
UniTEXは、既存のアプローチに比べて視覚的品質とテクスチャの整合性が優れている。
論文 参考訳(メタデータ) (2025-05-29T08:58:41Z) - TriTex: Learning Texture from a Single Mesh via Triplane Semantic Features [78.13246375582906]
本研究では,1つのテクスチャメッシュから体積テクスチャ場を学習し,セマンティックな特徴を対象色にマッピングする手法を提案する。
本手法は,ゲーム開発などのアプリケーションにおいて,3次元モデル間で優れたテクスチャ品質を実現する。
論文 参考訳(メタデータ) (2025-03-20T18:35:03Z) - TEXGen: a Generative Diffusion Model for Mesh Textures [63.43159148394021]
我々は、UVテクスチャ空間自体における学習の根本的な問題に焦点を当てる。
本稿では,点クラウド上にアテンション層を持つUVマップ上の畳み込みをインターリーブするスケーラブルなネットワークアーキテクチャを提案する。
テキストプロンプトとシングルビュー画像によって導かれるUVテクスチャマップを生成する7億のパラメータ拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-11-22T05:22:11Z) - MVPaint: Synchronized Multi-View Diffusion for Painting Anything 3D [63.9188712646076]
テクスチャリングは3Dアセット生産であり、視覚的魅力と視覚的魅力を高める。
近年の進歩にもかかわらず、メソッドは、主に局所的な不連続のために、しばしばサブパー結果をもたらす。
本稿では,高解像度かつシームレスなマルチビュー一貫性を実現するMVPaintという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-04T17:59:39Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - FFHQ-UV: Normalized Facial UV-Texture Dataset for 3D Face Reconstruction [46.3392612457273]
このデータセットには、5万以上の高品質なテクスチャUVマップが含まれており、照度、中性表現、クリーンな顔領域がある。
我々のパイプラインは、StyleGANベースの顔画像編集アプローチの最近の進歩を活用している。
実験により,本手法は最先端手法よりも再現精度が向上することが示された。
論文 参考訳(メタデータ) (2022-11-25T03:21:05Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。