論文の概要: GarmentPainter: Efficient 3D Garment Texture Synthesis with Character-Guided Diffusion Model
- arxiv url: http://arxiv.org/abs/2603.08228v1
- Date: Mon, 09 Mar 2026 11:01:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.817532
- Title: GarmentPainter: Efficient 3D Garment Texture Synthesis with Character-Guided Diffusion Model
- Title(参考訳): GarmentPainter:文字誘導拡散モデルによる効率的な3次元ガーメントテクスチャ合成
- Authors: Jinbo Wu, Xiaobo Gao, Xing Liu, Chen Zhao, Jialun Liu,
- Abstract要約: GarmentPainterは、高品質で3D対応のテクスチャをUV空間で合成するためのフレームワークである。
本手法では,UV位置マップを3次元構造ガイダンスとして活用し,布地表面におけるテクスチャの整合性を確保する。
- 参考スコア(独自算出の注目度): 15.770752653490733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating high-fidelity, 3D-consistent garment textures remains a challenging problem due to the inherent complexities of garment structures and the stringent requirement for detailed, globally consistent texture synthesis. Existing approaches either rely on 2D-based diffusion models, which inherently struggle with 3D consistency, require expensive multi-step optimization or depend on strict spatial alignment between 2D reference images and 3D meshes, which limits their flexibility and scalability. In this work, we introduce GarmentPainter, a simple yet efficient framework for synthesizing high-quality, 3D-aware garment textures in UV space. Our method leverages a UV position map as the 3D structural guidance, ensuring texture consistency across the garment surface during texture generation. To enhance control and adaptability, we introduce a type selection module, enabling fine-grained texture generation for specific garment components based on a character reference image, without requiring alignment between the reference image and the 3D mesh. GarmentPainter efficiently integrates all guidance signals into the input of a diffusion model in a spatially aligned manner, without modifying the underlying UNet architecture. Extensive experiments demonstrate that GarmentPainter achieves state-of-the-art performance in terms of visual fidelity, 3D consistency, and computational efficiency, outperforming existing methods in both qualitative and quantitative evaluations.
- Abstract(参考訳): 高忠実で3D一貫性のある衣服テクスチャを生成することは、衣服構造の本質的な複雑さと、細部でグローバルに一貫したテクスチャ合成のための厳密な要件のために、依然として難しい問題である。
既存のアプローチは、本質的に3D一貫性に苦しむ2Dベースの拡散モデルに依存し、高価なマルチステップ最適化を必要とするか、2D参照画像と3Dメッシュ間の厳密な空間的アライメントに依存し、柔軟性とスケーラビリティを制限している。
本稿では,UV空間における高品質で3D対応のテクスチャを合成するための,シンプルかつ効率的なフレームワークであるGarmentPainterを紹介する。
提案手法では,UV位置マップを3次元構造ガイダンスとして利用し,テクスチャ生成時の衣服表面におけるテクスチャの整合性を確保する。
制御と適応性を向上させるため,文字参照画像に基づく特定の衣服成分に対して,参照画像と3Dメッシュとの整合を必要とせず,きめ細かなテクスチャ生成が可能なタイプ選択モジュールを導入する。
GarmentPainterは、基盤となるUNetアーキテクチャを変更することなく、空間的に整列した方法で、すべての誘導信号を拡散モデルの入力に効率的に統合する。
広汎な実験により、GarmentPainterは、視覚的忠実度、3次元整合性、計算効率の観点から最先端のパフォーマンスを達成し、定性評価と定量的評価の両方において既存の手法より優れていることが示された。
関連論文リスト
- LaFiTe: A Generative Latent Field for 3D Native Texturing [72.05710323154288]
既存のネイティブアプローチは、その生成したテクスチャの忠実さと一般性を著しく制限する、強力で多目的な表現が欠如しているため、疎外である。
粗い色表現と紫外パラメータ化によって制約された高品質なテクスチャを生成するLaFiTeを紹介する。
論文 参考訳(メタデータ) (2025-12-04T13:33:49Z) - TEXTRIX: Latent Attribute Grid for Native Texture Generation and Beyond [42.93031959503468]
TEXTRIXは、高忠実なテクスチャ合成と下流アプリケーションのためのネイティブな3D属性生成フレームワークである。
提案手法は遅延型3D属性グリッドを構築し, スパースアテンションを備えた拡散変圧器を利用する。
このネイティブ表現に基づいて構築されたこのフレームワークは、グリッド上のセマンティック属性を予測するために同じアーキテクチャをトレーニングすることで、自然に高精度な3Dセグメンテーションに拡張する。
論文 参考訳(メタデータ) (2025-12-02T18:18:20Z) - UniTEX: Universal High Fidelity Generative Texturing for 3D Shapes [35.667175445637604]
二段階テクスチャ生成フレームワークUniTEXを提案する。
UniTEXは、既存のアプローチに比べて視覚的品質とテクスチャの整合性が優れている。
論文 参考訳(メタデータ) (2025-05-29T08:58:41Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - RomanTex: Decoupling 3D-aware Rotary Positional Embedded Multi-Attention Network for Texture Synthesis [10.350576861948952]
RomanTexはマルチビューベースのテクスチャ生成フレームワークで、マルチアテンションネットワークと基礎となる3D表現を統合している。
本手法はテクスチャの品質と整合性を実現する。
論文 参考訳(メタデータ) (2025-03-24T17:56:11Z) - InsTex: Indoor Scenes Stylized Texture Synthesis [81.12010726769768]
拡張現実(ARVR)アプリケーションでは、高品質なテクスチャが3Dシーンに不可欠である。
現在の手法は、長い処理時間と視覚的アーティファクトに悩まされている。
3Dシーンのための高品質なテクスチャを生成するために設計された2段階アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-01-22T08:37:59Z) - MVPaint: Synchronized Multi-View Diffusion for Painting Anything 3D [63.9188712646076]
テクスチャリングは3Dアセット生産であり、視覚的魅力と視覚的魅力を高める。
近年の進歩にもかかわらず、メソッドは、主に局所的な不連続のために、しばしばサブパー結果をもたらす。
本稿では,高解像度かつシームレスなマルチビュー一貫性を実現するMVPaintという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-04T17:59:39Z) - VCD-Texture: Variance Alignment based 3D-2D Co-Denoising for Text-Guided Texturing [22.39760469467524]
本研究では,2次元拡散モデルと3次元拡散モデルの間のモーダルギャップに対処する分散テクスチャ合成を提案する。
我々は、競合する領域との詳細な関係を改善するために、塗装モジュールを提示する。
論文 参考訳(メタデータ) (2024-07-05T12:11:33Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。