論文の概要: MV2UV: Generating High-quality UV Texture Maps with Multiview Prompts
- arxiv url: http://arxiv.org/abs/2603.15436v1
- Date: Mon, 16 Mar 2026 15:42:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.550384
- Title: MV2UV: Generating High-quality UV Texture Maps with Multiview Prompts
- Title(参考訳): MV2UV:マルチビュープロンプトによる高品質UVテクスチャマップの作成
- Authors: Zheng Zhang, Qinchuan Zhang, Yuteng Ye, Zhi Chen, Penglei Ji, Mengfei Li, Wenxiao Zhang, Yuan Liu,
- Abstract要約: MV2UVと呼ばれる新しい手法を提案し、マルチビュー生成からの2次元生成先行とUV微細化の塗装能力を組み合わせて高品質なテクスチャマップを得る。
実験により,本手法は既存の手法よりも質の高いテクスチャ生成が可能であることが確認された。
- 参考スコア(独自算出の注目度): 16.113996183718957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating high-quality textures for 3D assets is a challenging task. Existing multiview texture generation methods suffer from the multiview inconsistency and missing textures on unseen parts, while UV inpainting texture methods do not generalize well due to insufficient UV data and cannot well utilize 2D image diffusion priors. In this paper, we propose a new method called MV2UV that combines 2D generative priors from multiview generation and the inpainting ability of UV refinement to get high-quality texture maps. Our key idea is to adopt a UV space generative model that simultaneously inpaints unseen parts of multiview images while resolving the inconsistency of multiview images. Experiments show that our method enables a better texture generation quality than existing methods, especially in unseen occluded and multiview-inconsistent parts.
- Abstract(参考訳): 3Dアセットのための高品質なテクスチャの生成は難しい作業です。
既存のマルチビューテクスチャ生成手法は, 未確認部分のマルチビュー不整合や欠落テクスチャに悩まされているが, 紫外線塗装テクスチャの手法は, 紫外線データ不足による一般化が困難であり, 2次元画像拡散先行を十分に利用できない。
本稿では,マルチビュー生成による2次元生成先行と,紫外線改質による質の高いテクスチャマップ作成能力を組み合わせたMV2UVという新しい手法を提案する。
我々のキーとなる考え方は、マルチビュー画像の不整合を解消しつつ、同時に見えない部分のマルチビュー画像にペンキを塗る紫外線空間生成モデルを採用することである。
実験により,本手法は既存の手法よりも質の高いテクスチャ生成が可能であることが確認された。
関連論文リスト
- SeqTex: Generate Mesh Textures in Video Sequence [62.766839821764144]
本稿では3次元テクスチャ生成モデルのトレーニングのための新しいエンドツーエンドフレームワークであるSeqTexを紹介する。
画像条件とテキスト条件の両テクスチャ生成タスクにおいて,SeqTexは最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-07-06T07:58:36Z) - TEXGen: a Generative Diffusion Model for Mesh Textures [63.43159148394021]
我々は、UVテクスチャ空間自体における学習の根本的な問題に焦点を当てる。
本稿では,点クラウド上にアテンション層を持つUVマップ上の畳み込みをインターリーブするスケーラブルなネットワークアーキテクチャを提案する。
テキストプロンプトとシングルビュー画像によって導かれるUVテクスチャマップを生成する7億のパラメータ拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-11-22T05:22:11Z) - MVPaint: Synchronized Multi-View Diffusion for Painting Anything 3D [63.9188712646076]
テクスチャリングは3Dアセット生産であり、視覚的魅力と視覚的魅力を高める。
近年の進歩にもかかわらず、メソッドは、主に局所的な不連続のために、しばしばサブパー結果をもたらす。
本稿では,高解像度かつシームレスなマルチビュー一貫性を実現するMVPaintという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-04T17:59:39Z) - UVMap-ID: A Controllable and Personalized UV Map Generative Model [67.71022515856653]
制御可能でパーソナライズされたUVマップ生成モデルであるUVMap-IDを導入する。
従来の2次元の大規模学習法とは異なり,本研究では,事前学習したテキスト・画像拡散モデルの微調整を提案する。
定量的および定性的な解析は、制御可能でパーソナライズされたUVマップ生成における本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-04-22T20:30:45Z) - Texture Generation on 3D Meshes with Point-UV Diffusion [86.69672057856243]
本稿では, 粗い微細化パイプラインであるPoint-UV拡散モデルとUVマッピングを併用し, 高品質なテクスチャイメージをUV空間で生成する。
本手法は,任意の属のメッシュを処理し,多種多様で,幾何に適合し,高忠実度なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-21T06:20:54Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z) - StyleUV: Diverse and High-fidelity UV Map Generative Model [24.982824840625216]
本稿では,高品質なUVマップを訓練に必要とせず,多種多様なリアルなUVマップを生成することを学習する新しいUVマップ生成モデルを提案する。
定量的および定性的な評価は,提案したテクスチャモデルが既存手法よりも多様性が高く,忠実度の高いテクスチャを生成することを示すものである。
論文 参考訳(メタデータ) (2020-11-25T17:19:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。