論文の概要: MatLat: Material Latent Space for PBR Texture Generation
- arxiv url: http://arxiv.org/abs/2512.17302v1
- Date: Fri, 19 Dec 2025 07:35:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.286162
- Title: MatLat: Material Latent Space for PBR Texture Generation
- Title(参考訳): MatLat: PBRテクスチャ生成のための材料遅延空間
- Authors: Kyeongmin Yeo, Yunhong Min, Jaihoon Kim, Minhyuk Sung,
- Abstract要約: 与えられた3次元メッシュ上で高品質なPBRテクスチャを生成するための生成フレームワークを提案する。
大規模PBRテクスチャデータセットは乏しいため,本手法では,事前学習した遅延画像生成モデルの埋め込み空間と拡散先行を効果的に活用することに焦点を当てる。
- 参考スコア(独自算出の注目度): 27.611659308292506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a generative framework for producing high-quality PBR textures on a given 3D mesh. As large-scale PBR texture datasets are scarce, our approach focuses on effectively leveraging the embedding space and diffusion priors of pretrained latent image generative models while learning a material latent space, MatLat, through targeted fine-tuning. Unlike prior methods that freeze the embedding network and thus lead to distribution shifts when encoding additional PBR channels and hinder subsequent diffusion training, we fine-tune the pretrained VAE so that new material channels can be incorporated with minimal latent distribution deviation. We further show that correspondence-aware attention alone is insufficient for cross-view consistency unless the latent-to-image mapping preserves locality. To enforce this locality, we introduce a regularization in the VAE fine-tuning that crops latent patches, decodes them, and aligns the corresponding image regions to maintain strong pixel-latent spatial correspondence. Ablation studies and comparison with previous baselines demonstrate that our framework improves PBR texture fidelity and that each component is critical for achieving state-of-the-art performance.
- Abstract(参考訳): 与えられた3次元メッシュ上で高品質なPBRテクスチャを生成するための生成フレームワークを提案する。
大規模PBRテクスチャデータセットは乏しいため,本手法では,対象の微調整により,材料潜伏空間であるMatLatを学習しながら,事前学習した潜伏画像生成モデルの埋め込み空間と拡散先行を効果的に活用することに焦点を当てる。
埋め込みネットワークを凍結する従来の方法とは異なり、追加のPBRチャネルを符号化し、その後の拡散訓練を妨げた場合、新しい材料チャネルを最小限の潜伏分布偏差で組み込むことができるように、事前訓練されたVAEを微調整する。
また,画像間のラテントマッピングが局所性を保たない限り,応答認識のみの注意が相互視の整合性に乏しいことを示す。
この局所性を実現するために,我々は,潜伏パッチを収穫し,デコードし,対応する画像領域を整列させて,強いピクセル・ラテント空間対応を維持するVOEファインタニングの正規化を導入する。
従来のベースラインとのアブレーション研究と比較により,我々のフレームワークはPBRのテクスチャ忠実度を向上し,各コンポーネントが最先端の性能を達成する上で重要であることが示された。
関連論文リスト
- Chord: Chain of Rendering Decomposition for PBR Material Estimation from Generated Texture Images [10.46170854352924]
PBR材料生成のための新しい2段階生成・推定フレームワークを提案する。
生成段階では、微調整拡散モデルがユーザ入力に合わせた色付けされたタイル状テクスチャ画像を合成する。
推定段階では,事前に抽出した表現を単一ステップの画像条件拡散モデルに変換することで,SVBRDFチャネルを逐次予測する連鎖分解方式を導入する。
論文 参考訳(メタデータ) (2025-09-12T04:03:07Z) - Learning Deblurring Texture Prior from Unpaired Data with Diffusion Model [92.61216319417208]
画像の劣化に対する新しい拡散モデル(DM)に基づくフレームワークを提案する。
我々の研究は、ぼやけた画像のテクスチャを回復するのに役立つ事前知識を生成するために、DMを実行する。
生成したテクスチャをフル活用するために,テクスチャ転送変換層(TTformer)を提案する。
論文 参考訳(メタデータ) (2025-07-18T01:50:31Z) - PBR-SR: Mesh PBR Texture Super Resolution from 2D Image Priors [52.28858915766172]
PBR-SRは物理ベースレンダリング(PBR)テクスチャスーパーレゾリューション(SR)の新しい手法である
ゼロショット方式で低解像度(LR)PBR入力から高解像度で高品質なPBRテクスチャを出力する。
論文 参考訳(メタデータ) (2025-06-03T13:15:34Z) - FlexPainter: Flexible and Multi-View Consistent Texture Generation [15.727635740684157]
textbfFlexPainterは、柔軟なマルチモーダル条件ガイダンスを可能にする新しいテクスチャ生成パイプラインである。
我々のフレームワークは、柔軟性と生成品質の両方において最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-06-03T08:36:03Z) - PacTure: Efficient PBR Texture Generation on Packed Views with Visual Autoregressive Models [73.4445896872942]
PacTureは、未ドメインの3Dメッシュから物理ベースのレンダリング(PBR)素材テクスチャを生成するためのフレームワークである。
ビューパッキング(View Packing)は、ビュー毎の有効解像度を高める新しいテクニックである。
論文 参考訳(メタデータ) (2025-05-28T14:23:30Z) - IntrinsiX: High-Quality PBR Generation using Image Priors [49.90007540430264]
IntrinsiXはテキスト記述から高品質な内在画像を生成する新しい手法である。
シーンライティングを内蔵した既存のテキスト・ツー・イメージモデルとは対照的に,本手法では物理ベースのレンダリング(PBR)マップを推定する。
論文 参考訳(メタデータ) (2025-04-01T17:47:48Z) - Coherent and Multi-modality Image Inpainting via Latent Space Optimization [61.99406669027195]
PILOT(intextbfPainting vtextbfIa textbfOptextbfTimization)は、新しいテキストセマンティック中央化とテキストセマンティック保存損失に基づく最適化手法である。
本手法は,背景とのコヒーレンスを維持しつつ,ユーザが提供するプロンプトに対して高い忠実度を示す塗装領域を生成できる潜時空間を探索する。
論文 参考訳(メタデータ) (2024-07-10T19:58:04Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。