論文の概要: NI-Tex: Non-isometric Image-based Garment Texture Generation
- arxiv url: http://arxiv.org/abs/2511.18765v1
- Date: Mon, 24 Nov 2025 04:57:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.021652
- Title: NI-Tex: Non-isometric Image-based Garment Texture Generation
- Title(参考訳): NI-Tex:非等尺画像に基づくガーメントテクスチャ生成
- Authors: Hui Shan, Ming Li, Haitao Yang, Kai Zheng, Sizhe Zheng, Yanwei Fu, Xiangru Huang,
- Abstract要約: 3Dの衣服メッシュは、ほとんどの現実世界の衣服をカバーしているが、テクスチャの多様性は限られている。
より現実的なテクスチャを得るために、生成法は物理ベースのレンダリング(PBR)テクスチャや材料を抽出するためにしばしば用いられる。
物理的にシミュレートされた衣服中心のデータセットである3D Garment Videosを構築した。
我々はNano Bananaを高品質な非等尺画像編集に利用し、非等尺画像-幾何対間の信頼性の高いクロストポロジーテクスチャ生成を実現している。
- 参考スコア(独自算出の注目度): 32.24911447699767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing industrial 3D garment meshes already cover most real-world clothing geometries, yet their texture diversity remains limited. To acquire more realistic textures, generative methods are often used to extract Physically-based Rendering (PBR) textures and materials from large collections of wild images and project them back onto garment meshes. However, most image-conditioned texture generation approaches require strict topological consistency between the input image and the input 3D mesh, or rely on accurate mesh deformation to match to the image poses, which significantly constrains the texture generation quality and flexibility. To address the challenging problem of non-isometric image-based garment texture generation, we construct 3D Garment Videos, a physically simulated, garment-centric dataset that provides consistent geometry and material supervision across diverse deformations, enabling robust cross-pose texture learning. We further employ Nano Banana for high-quality non-isometric image editing, achieving reliable cross-topology texture generation between non-isometric image-geometry pairs. Finally, we propose an iterative baking method via uncertainty-guided view selection and reweighting that fuses multi-view predictions into seamless, production-ready PBR textures. Through extensive experiments, we demonstrate that our feedforward dual-branch architecture generates versatile and spatially aligned PBR materials suitable for industry-level 3D garment design.
- Abstract(参考訳): 既存の工業用3D衣服メッシュは、ほとんどの現実世界の衣服をカバーしているが、テクスチャの多様性は限られている。
より現実的なテクスチャを得るために、生成法は、多くの野生画像から物理ベースのレンダリング(PBR)テクスチャと材料を抽出し、それらを衣服メッシュに投影する。
しかし、ほとんどの画像条件のテクスチャ生成アプローチでは、入力画像と入力3Dメッシュ間の厳密なトポロジ的整合性を必要とするか、画像のポーズに合わせて正確なメッシュ変形に依存するため、テクスチャ生成の品質と柔軟性が著しく制限される。
非等尺的画像に基づく布地テクスチャ生成の課題に対処するため、3D Garment Videosは、物理的にシミュレートされた衣服中心のデータセットであり、多様な変形に対して一貫した幾何学と材料管理を提供し、堅牢なクロスポジションテクスチャ学習を可能にする。
さらに,Nano Bananaを高品質な非等尺画像編集に利用し,非等尺画像-幾何対間の信頼性の高いクロストポロジーテクスチャ生成を実現している。
最後に,複数ビュー予測をシームレスで生産可能なPBRテクスチャに融合させる,不確実性誘導ビュー選択と再重み付けによる反復的ベーキング手法を提案する。
広範にわたる実験により,我々のフィードフォワード二重ブランチアーキテクチャは,産業レベルの3D衣料デザインに適した多目的かつ空間的に整合したPBR材料を生成することを示した。
関連論文リスト
- RomanTex: Decoupling 3D-aware Rotary Positional Embedded Multi-Attention Network for Texture Synthesis [10.350576861948952]
RomanTexはマルチビューベースのテクスチャ生成フレームワークで、マルチアテンションネットワークと基礎となる3D表現を統合している。
本手法はテクスチャの品質と整合性を実現する。
論文 参考訳(メタデータ) (2025-03-24T17:56:11Z) - Pandora3D: A Comprehensive Framework for High-Quality 3D Shape and Texture Generation [56.862552362223425]
本稿では,多様な入力プロンプトから高品質な3次元形状とテクスチャを生成するための包括的枠組みを提案する。
フレームワークは3次元形状生成とテクスチャ生成で構成されている。
本報告では,フレームワークの改良と拡張に向けたシステムアーキテクチャ,実験結果,今後の方向性について述べる。
論文 参考訳(メタデータ) (2025-02-20T04:22:30Z) - FabricDiffusion: High-Fidelity Texture Transfer for 3D Garments Generation from In-The-Wild Clothing Images [56.63824638417697]
ファブリックディフュージョン(FabricDiffusion)は、織物のテクスチャを1枚の衣服画像から任意の形状の3D衣服に転送する方法である。
FabricDiffusionは、テクスチャパターン、材料特性、詳細な印刷物やロゴを含む、単一の衣料品画像から様々な特徴を伝達できることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:12Z) - Meta 3D TextureGen: Fast and Consistent Texture Generation for 3D Objects [54.80813150893719]
高品質なテクスチャを20秒未満で生成することを目的とした,2つのシーケンシャルネットワークで構成される新しいフィードフォワード方式であるMeta 3D TextureGenを紹介する。
提案手法は,2次元空間の3次元セマンティクスにテキスト・ツー・イメージ・モデルを適用し,それらを完全かつ高解像度なUVテクスチャマップに融合することにより,品質とスピードを向上する。
さらに、任意の比率で任意のテクスチャをアップスケーリングできるテクスチャ拡張ネットワークを導入し、4kピクセルの解像度テクスチャを生成します。
論文 参考訳(メタデータ) (2024-07-02T17:04:34Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Mesh2Tex: Generating Mesh Textures from Image Queries [45.32242590651395]
特に、実際の物体の画像からのテクスチャ化されたステージテクスチャは、実際の画像観察と一致する。
本稿では,非相関な3次元オブジェクト形状のコレクションからオブジェクト形状を学習するMesh2Texを紹介する。
論文 参考訳(メタデータ) (2023-04-12T13:58:25Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。