論文の概要: FlexPainter: Flexible and Multi-View Consistent Texture Generation
- arxiv url: http://arxiv.org/abs/2506.02620v1
- Date: Tue, 03 Jun 2025 08:36:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.493851
- Title: FlexPainter: Flexible and Multi-View Consistent Texture Generation
- Title(参考訳): FlexPainter: フレキシブルでマルチビューの一貫性のあるテクスチャ生成
- Authors: Dongyu Yan, Leyi Wu, Jiantao Lin, Luozhou Wang, Tianshuo Xu, Zhifei Chen, Zhen Yang, Lie Xu, Shunsi Zhang, Yingcong Chen,
- Abstract要約: textbfFlexPainterは、柔軟なマルチモーダル条件ガイダンスを可能にする新しいテクスチャ生成パイプラインである。
我々のフレームワークは、柔軟性と生成品質の両方において最先端の手法を著しく上回っている。
- 参考スコア(独自算出の注目度): 15.727635740684157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Texture map production is an important part of 3D modeling and determines the rendering quality. Recently, diffusion-based methods have opened a new way for texture generation. However, restricted control flexibility and limited prompt modalities may prevent creators from producing desired results. Furthermore, inconsistencies between generated multi-view images often lead to poor texture generation quality. To address these issues, we introduce \textbf{FlexPainter}, a novel texture generation pipeline that enables flexible multi-modal conditional guidance and achieves highly consistent texture generation. A shared conditional embedding space is constructed to perform flexible aggregation between different input modalities. Utilizing such embedding space, we present an image-based CFG method to decompose structural and style information, achieving reference image-based stylization. Leveraging the 3D knowledge within the image diffusion prior, we first generate multi-view images simultaneously using a grid representation to enhance global understanding. Meanwhile, we propose a view synchronization and adaptive weighting module during diffusion sampling to further ensure local consistency. Finally, a 3D-aware texture completion model combined with a texture enhancement model is used to generate seamless, high-resolution texture maps. Comprehensive experiments demonstrate that our framework significantly outperforms state-of-the-art methods in both flexibility and generation quality.
- Abstract(参考訳): テクスチャマップ生成は3Dモデリングの重要な部分であり、レンダリング品質を決定する。
近年,拡散型手法がテクスチャ生成の新しい手法を開拓している。
しかし、制限されたコントロールの柔軟性と制限されたプロンプトのモダリティは、クリエイターが望ましい結果を生み出すことを妨げかねない。
さらに、生成されたマルチビュー画像の不整合は、しばしばテクスチャ生成の品質を低下させる。
これらの問題に対処するために,フレキシブルなマルチモーダルな条件付きガイダンスを実現し,高度に一貫したテクスチャ生成を実現する,新しいテクスチャ生成パイプラインである \textbf{FlexPainter} を導入する。
異なる入力モード間のフレキシブルアグリゲーションを行うために、共有条件埋め込み空間を構築する。
このような埋め込み空間を利用して、構造情報とスタイル情報を分解する画像ベースCFG法を提案し、参照画像ベースのスタイリングを実現する。
画像拡散前の3次元知識を活用することで、まずグリッド表現を用いてマルチビュー画像を同時に生成し、グローバルな理解を深める。
一方,拡散サンプリング中のビュー同期および適応重み付けモジュールを提案し,局所的な一貫性を確保する。
最後に、3D対応テクスチャ補完モデルとテクスチャ強化モデルを組み合わせて、シームレスで高解像度なテクスチャマップを生成する。
総合的な実験により、我々のフレームワークは柔軟性と生成品質の両方において最先端の手法を大幅に上回っていることが示された。
関連論文リスト
- PacTure: Efficient PBR Texture Generation on Packed Views with Visual Autoregressive Models [73.4445896872942]
PacTureは、未ドメインの3Dメッシュから物理ベースのレンダリング(PBR)素材テクスチャを生成するためのフレームワークである。
ビューパッキング(View Packing)は、ビュー毎の有効解像度を高める新しいテクニックである。
論文 参考訳(メタデータ) (2025-05-28T14:23:30Z) - TriTex: Learning Texture from a Single Mesh via Triplane Semantic Features [78.13246375582906]
本研究では,1つのテクスチャメッシュから体積テクスチャ場を学習し,セマンティックな特徴を対象色にマッピングする手法を提案する。
本手法は,ゲーム開発などのアプリケーションにおいて,3次元モデル間で優れたテクスチャ品質を実現する。
論文 参考訳(メタデータ) (2025-03-20T18:35:03Z) - Pandora3D: A Comprehensive Framework for High-Quality 3D Shape and Texture Generation [56.862552362223425]
本稿では,多様な入力プロンプトから高品質な3次元形状とテクスチャを生成するための包括的枠組みを提案する。
フレームワークは3次元形状生成とテクスチャ生成で構成されている。
本報告では,フレームワークの改良と拡張に向けたシステムアーキテクチャ,実験結果,今後の方向性について述べる。
論文 参考訳(メタデータ) (2025-02-20T04:22:30Z) - Meta 3D TextureGen: Fast and Consistent Texture Generation for 3D Objects [54.80813150893719]
高品質なテクスチャを20秒未満で生成することを目的とした,2つのシーケンシャルネットワークで構成される新しいフィードフォワード方式であるMeta 3D TextureGenを紹介する。
提案手法は,2次元空間の3次元セマンティクスにテキスト・ツー・イメージ・モデルを適用し,それらを完全かつ高解像度なUVテクスチャマップに融合することにより,品質とスピードを向上する。
さらに、任意の比率で任意のテクスチャをアップスケーリングできるテクスチャ拡張ネットワークを導入し、4kピクセルの解像度テクスチャを生成します。
論文 参考訳(メタデータ) (2024-07-02T17:04:34Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - Local Padding in Patch-Based GANs for Seamless Infinite-Sized Texture Synthesis [0.8192907805418583]
本稿では,パッチ・バイ・パッチ生成に基づくGANを用いて,任意のサイズのテクスチャ画像を生成する手法を提案する。
モデルはゼロパディングの代わりに、生成したパッチ間のバウンダリ機能を共有するジェネレータ内のテキストローカルパディングを使用する。
提案手法は,生成したテクスチャの品質と多様性の観点から,既存のGANをベースとしたテクスチャモデルよりも大幅に進歩している。
論文 参考訳(メタデータ) (2023-09-05T15:57:23Z) - Text-guided High-definition Consistency Texture Model [0.0]
本稿では,3次元メッシュのテクスチャをテキストプロンプトに従って生成する手法として,HCTM(High-definition Consistency Texture Model)を提案する。
本研究では,事前学習した深度画像拡散モデルを利用して,テキストプロンプトと深度マップに基づいて単一視点結果を生成する。
提案手法は、3次元メッシュに対して高精細で一貫したテクスチャを生成する上で有望な結果を示した。
論文 参考訳(メタデータ) (2023-05-10T05:09:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。