論文の概要: TexTailor: Customized Text-aligned Texturing via Effective Resampling
- arxiv url: http://arxiv.org/abs/2506.10612v1
- Date: Thu, 12 Jun 2025 11:55:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.709962
- Title: TexTailor: Customized Text-aligned Texturing via Effective Resampling
- Title(参考訳): TexTailor: 効果的なリサンプリングによるテキスト整列テクスチャのカスタマイズ
- Authors: Suin Lee, Dae-Shik Kim,
- Abstract要約: テキスト記述から一貫したテクスチャを生成する新しい方法であるTexTailorを提案する。
既存のテキスト・テクスチャ合成アプローチでは、深度認識拡散モデルを用いて画像を生成し、複数の視点でテクスチャを合成する。
我々は、オブジェクトの形状に基づいてカメラの位置を適応的に調整することで、ビュー一貫性テクスチャの合成を改善する。
- 参考スコア(独自算出の注目度): 14.861723817863806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present TexTailor, a novel method for generating consistent object textures from textual descriptions. Existing text-to-texture synthesis approaches utilize depth-aware diffusion models to progressively generate images and synthesize textures across predefined multiple viewpoints. However, these approaches lead to a gradual shift in texture properties across viewpoints due to (1) insufficient integration of previously synthesized textures at each viewpoint during the diffusion process and (2) the autoregressive nature of the texture synthesis process. Moreover, the predefined selection of camera positions, which does not account for the object's geometry, limits the effective use of texture information synthesized from different viewpoints, ultimately degrading overall texture consistency. In TexTailor, we address these issues by (1) applying a resampling scheme that repeatedly integrates information from previously synthesized textures within the diffusion process, and (2) fine-tuning a depth-aware diffusion model on these resampled textures. During this process, we observed that using only a few training images restricts the model's original ability to generate high-fidelity images aligned with the conditioning, and therefore propose an performance preservation loss to mitigate this issue. Additionally, we improve the synthesis of view-consistent textures by adaptively adjusting camera positions based on the object's geometry. Experiments on a subset of the Objaverse dataset and the ShapeNet car dataset demonstrate that TexTailor outperforms state-of-the-art methods in synthesizing view-consistent textures. The source code for TexTailor is available at https://github.com/Adios42/Textailor
- Abstract(参考訳): テキスト記述から一貫したテクスチャを生成する新しい方法であるTexTailorを提案する。
既存のテキスト・テクスチャ合成アプローチでは、奥行き認識拡散モデルを用いて画像を生成し、予め定義された複数の視点でテクスチャを合成する。
しかし,これらの手法は,(1)拡散過程における各視点における予め合成したテクスチャの統合が不十分であること,および(2)テクスチャ合成プロセスの自己回帰性により,視点間のテクスチャ特性の段階的変化につながる。
さらに、被写体形状を考慮しない予め定義されたカメラ位置の選択は、異なる視点から合成されたテクスチャ情報の有効利用を制限し、最終的には全体的なテクスチャの整合性を低下させる。
TexTailor では,(1) これまでに合成されたテクスチャからの情報を拡散過程に繰り返し統合する再サンプリング手法を適用し,(2) 再サンプリングされたテクスチャ上での深度認識拡散モデルを微調整することによって,これらの課題に対処する。
この過程で,少数のトレーニング画像のみを使用することで,条件付き高忠実度画像の生成能力が制限されることが判明した。
さらに、オブジェクトの形状に基づいてカメラの位置を適応的に調整することで、ビュー一貫性テクスチャの合成を改善する。
ObjaverseデータセットとShapeNetカーデータセットのサブセットの実験により、TexTailorはビュー一貫性テクスチャを合成する最先端の手法よりも優れています。
TexTailorのソースコードはhttps://github.com/Adios42/Textailorで入手できる。
関連論文リスト
- Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - GenesisTex: Adapting Image Denoising Diffusion to Texture Space [15.907134430301133]
GenesisTexはテキスト記述から3次元幾何学のテクスチャを合成する新しい手法である。
我々は,各視点に対して潜在テクスチャマップを保持し,対応する視点の描画に予測ノイズを伴って更新する。
大域的整合性は、ノイズ予測ネットワーク内のスタイル整合性機構の統合によって達成される。
論文 参考訳(メタデータ) (2024-03-26T15:15:15Z) - Generating Non-Stationary Textures using Self-Rectification [70.91414475376698]
本稿では,実例に基づく非定常テクスチャ合成の課題に対処する。
本稿では,ユーザが標準画像編集ツールを使用して参照テクスチャを初めて修正する,新しい2段階のアプローチを提案する。
提案手法は「自己修正(self-rectification)」と呼ばれ、このターゲットを自動的にコヒーレントでシームレスなテクスチャに洗練する。
論文 参考訳(メタデータ) (2024-01-05T15:07:05Z) - Paint-it: Text-to-Texture Synthesis via Deep Convolutional Texture Map Optimization and Physically-Based Rendering [47.78392889256976]
Paint-itは3Dレンダリングのためのテキスト駆動の高忠実なテクスチャマップ合成法である。
Paint-itはScore-Distillation Sampling(SDS)を利用してテキスト記述からテクスチャマップを合成する
我々は,DC-PBRがテクスチャ周波数に応じて最適化カリキュラムをスケジュールし,SDSからノイズ信号を自然にフィルタすることを示した。
論文 参考訳(メタデータ) (2023-12-18T17:17:08Z) - SceneTex: High-Quality Texture Synthesis for Indoor Scenes via Diffusion
Priors [49.03627933561738]
SceneTexは、奥行き拡散前処理を用いた室内シーンの高品質でスタイルに一貫性のあるテクスチャを生成する新しい方法である。
SceneTexは3D-FRONTシーンの様々な正確なテクスチャ合成を可能にする。
論文 参考訳(メタデータ) (2023-11-28T22:49:57Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - Deep Tiling: Texture Tile Synthesis Using a Deep Learning Approach [0.0]
多くの場合、テクスチャ画像は解像度が小さいため、大きな3dモデル表面を覆うことができない。
深層学習に基づくテクスチャ合成はそのような場合に非常に有効であることが証明されている。
堅牢な深層学習プロセスを用いて,実例に基づくテクスチャ合成の新たなアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-14T18:17:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。