論文の概要: AvatarTex: High-Fidelity Facial Texture Reconstruction from Single-Image Stylized Avatars
- arxiv url: http://arxiv.org/abs/2511.06721v1
- Date: Mon, 10 Nov 2025 05:31:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.090337
- Title: AvatarTex: High-Fidelity Facial Texture Reconstruction from Single-Image Stylized Avatars
- Title(参考訳): AvatarTex: シングル画像スティル化アバターを用いた高忠実顔面テクスチャ再構築
- Authors: Yuda Qiu, Zitong Xiao, Yiwei Zuo, Zisheng Ye, Weikai Chen, Xiaoguang Han,
- Abstract要約: AvatarTexは、顔のテクスチャを再構築するフレームワークで、単一の画像からスタイリングされたテクスチャとフォトリアリスティックなテクスチャの両方を生成することができる。
筆者らの3段階パイプラインは,まず拡散型塗り絵によるテクスチャ領域の欠如,GANによる潜時最適化によるスタイルと構造整合性の改善,拡散型塗り絵による細部細部の改善などを行った。
スタイル化されたテクスチャデータセットの必要性に対処するために,正確なUV整列レイアウトを備えた20,000のマルチスタイルUVテクスチャの高解像度コレクションであるTexHubを紹介した。
- 参考スコア(独自算出の注目度): 16.44346662761451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present AvatarTex, a high-fidelity facial texture reconstruction framework capable of generating both stylized and photorealistic textures from a single image. Existing methods struggle with stylized avatars due to the lack of diverse multi-style datasets and challenges in maintaining geometric consistency in non-standard textures. To address these limitations, AvatarTex introduces a novel three-stage diffusion-to-GAN pipeline. Our key insight is that while diffusion models excel at generating diversified textures, they lack explicit UV constraints, whereas GANs provide a well-structured latent space that ensures style and topology consistency. By integrating these strengths, AvatarTex achieves high-quality topology-aligned texture synthesis with both artistic and geometric coherence. Specifically, our three-stage pipeline first completes missing texture regions via diffusion-based inpainting, refines style and structure consistency using GAN-based latent optimization, and enhances fine details through diffusion-based repainting. To address the need for a stylized texture dataset, we introduce TexHub, a high-resolution collection of 20,000 multi-style UV textures with precise UV-aligned layouts. By leveraging TexHub and our structured diffusion-to-GAN pipeline, AvatarTex establishes a new state-of-the-art in multi-style facial texture reconstruction. TexHub will be released upon publication to facilitate future research in this field.
- Abstract(参考訳): AvatarTexは、1つの画像からスタイル化されたテクスチャとフォトリアリスティックなテクスチャの両方を生成できる高忠実な顔テクスチャ再構築フレームワークである。
既存の手法は、多様なマルチスタイルデータセットの欠如と、非標準テクスチャにおける幾何的一貫性を維持する上での課題のために、スタイル化されたアバターと苦労している。
これらの制限に対処するため、AvatarTexは3段階の拡散-GANパイプラインを導入した。
我々のキーとなる洞察は、拡散モデルは多様なテクスチャを生成するのに優れているが、露骨なUV制約を欠いているのに対して、GANはスタイルとトポロジーの整合性を保証するよく構造化された潜在空間を提供する。
これらの強みを統合することで、AvatarTexは、芸術的および幾何学的コヒーレンスの両方で高品質なトポロジーに沿ったテクスチャ合成を実現する。
特に,3段階のパイプラインでは,まず拡散型塗り絵によるテクスチャ領域の欠如,GANによる潜時最適化によるスタイルと構造整合性の改善,拡散型塗り絵による細部細部の改善などを行った。
スタイル化されたテクスチャデータセットの必要性に対処するために,正確なUV整列レイアウトを備えた20,000のマルチスタイルUVテクスチャの高解像度コレクションであるTexHubを紹介した。
TexHubと構造的拡散-GANパイプラインを活用することで、AvatarTexはマルチスタイルの顔テクスチャ再構築における新しい最先端技術を確立します。
TexHubは、この分野での今後の研究を促進するために、公開された。
関連論文リスト
- DiffTex: Differentiable Texturing for Architectural Proxy Models [63.370581207280004]
非秩序な写真からテクセルレベルでアーキテクチャプロキシモデルのための現実的なテクスチャマップを自動生成する手法を提案する。
提案手法は,UVマップ上のテックセルと入力画像中のピクセルとの対応性を確立し,各テクセルの色を関連するピクセル値の重み付けとして計算する。
論文 参考訳(メタデータ) (2025-09-27T14:39:53Z) - SeqTex: Generate Mesh Textures in Video Sequence [62.766839821764144]
本稿では3次元テクスチャ生成モデルのトレーニングのための新しいエンドツーエンドフレームワークであるSeqTexを紹介する。
画像条件とテキスト条件の両テクスチャ生成タスクにおいて,SeqTexは最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-07-06T07:58:36Z) - FlexPainter: Flexible and Multi-View Consistent Texture Generation [15.727635740684157]
textbfFlexPainterは、柔軟なマルチモーダル条件ガイダンスを可能にする新しいテクスチャ生成パイプラインである。
我々のフレームワークは、柔軟性と生成品質の両方において最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-06-03T08:36:03Z) - UniTEX: Universal High Fidelity Generative Texturing for 3D Shapes [35.667175445637604]
二段階テクスチャ生成フレームワークUniTEXを提案する。
UniTEXは、既存のアプローチに比べて視覚的品質とテクスチャの整合性が優れている。
論文 参考訳(メタデータ) (2025-05-29T08:58:41Z) - PacTure: Efficient PBR Texture Generation on Packed Views with Visual Autoregressive Models [73.4445896872942]
PacTureは、未ドメインの3Dメッシュから物理ベースのレンダリング(PBR)素材テクスチャを生成するためのフレームワークである。
ビューパッキング(View Packing)は、ビュー毎の有効解像度を高める新しいテクニックである。
論文 参考訳(メタデータ) (2025-05-28T14:23:30Z) - TEXGen: a Generative Diffusion Model for Mesh Textures [63.43159148394021]
我々は、UVテクスチャ空間自体における学習の根本的な問題に焦点を当てる。
本稿では,点クラウド上にアテンション層を持つUVマップ上の畳み込みをインターリーブするスケーラブルなネットワークアーキテクチャを提案する。
テキストプロンプトとシングルビュー画像によって導かれるUVテクスチャマップを生成する7億のパラメータ拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-11-22T05:22:11Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - TwinTex: Geometry-aware Texture Generation for Abstracted 3D
Architectural Models [13.248386665044087]
我々はTwinTexについて紹介する。TwinTexは写真にリアルなテクスチャを生成する最初の自動テクスチャマッピングフレームワークである。
提案手法は, 高品質なテクスチャマッピング手法を超越し, より少ない労力で, 熟練した生産水準に達する。
論文 参考訳(メタデータ) (2023-09-20T12:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。