論文の概要: MatPedia: A Universal Generative Foundation for High-Fidelity Material Synthesis
- arxiv url: http://arxiv.org/abs/2511.16957v1
- Date: Fri, 21 Nov 2025 05:16:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.893062
- Title: MatPedia: A Universal Generative Foundation for High-Fidelity Material Synthesis
- Title(参考訳): MatPedia: 高忠実性材料合成のためのユニバーサルジェネレーティブ財団
- Authors: Di Luo, Shuhui Yang, Mingxin Yang, Jiawei Lu, Yixuan Tang, Xintong Han, Zhuo Chen, Beibei Wang, Chunchao Guo,
- Abstract要約: MatPediaは、新しいRGB-PBR表現に基づいて構築された基礎モデルである。
材料をコンパクトに2つのラテントにエンコードする: 1つはRGB、もう1つは4つのPBRマップである。
MatPediaは、PBRデータセットと大規模なRGBイメージを組み合わせた混合コーパスであるMatHybrid-410Kでトレーニングされており、ネイティブな1024times1024$合成を実現している。
- 参考スコア(独自算出の注目度): 29.919740823136163
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Physically-based rendering (PBR) materials are fundamental to photorealistic graphics, yet their creation remains labor-intensive and requires specialized expertise. While generative models have advanced material synthesis, existing methods lack a unified representation bridging natural image appearance and PBR properties, leading to fragmented task-specific pipelines and inability to leverage large-scale RGB image data. We present MatPedia, a foundation model built upon a novel joint RGB-PBR representation that compactly encodes materials into two interdependent latents: one for RGB appearance and one for the four PBR maps encoding complementary physical properties. By formulating them as a 5-frame sequence and employing video diffusion architectures, MatPedia naturally captures their correlations while transferring visual priors from RGB generation models. This joint representation enables a unified framework handling multiple material tasks--text-to-material generation, image-to-material generation, and intrinsic decomposition--within a single architecture. Trained on MatHybrid-410K, a mixed corpus combining PBR datasets with large-scale RGB images, MatPedia achieves native $1024\times1024$ synthesis that substantially surpasses existing approaches in both quality and diversity.
- Abstract(参考訳): 物理ベースのレンダリング(PBR)素材はフォトリアリスティックグラフィックスの基本であるが、その創造は労働集約的であり、専門的な専門知識を必要とする。
生成モデルは高度な物質合成を持つが、既存の手法では自然な画像の外観とPBR特性をブリッジする統一表現が欠如しており、断片化されたタスク固有のパイプラインと大規模なRGB画像データを利用することができない。
本稿では,RGB-PBR表現に基づく基礎モデルであるMatPediaについて述べる。
それらを5フレームシーケンスとして定式化し、ビデオ拡散アーキテクチャを採用することで、MatPediaはRGB生成モデルから視覚的優先順位を転送しながら、それらの相関関係を自然にキャプチャする。
この共同表現は、テキストから素材への生成、画像から材料への生成、本質的な分解といった複数のタスクを単一のアーキテクチャで処理する統一的なフレームワークを実現する。
MatPediaは、PBRデータセットと大規模なRGBイメージを組み合わせた混合コーパスであるMatHybrid-410Kに基づいて、ネイティブな1024\times1024$合成を実現し、品質と多様性の両方において既存のアプローチを大幅に上回っている。
関連論文リスト
- DiffTex: Differentiable Texturing for Architectural Proxy Models [63.370581207280004]
非秩序な写真からテクセルレベルでアーキテクチャプロキシモデルのための現実的なテクスチャマップを自動生成する手法を提案する。
提案手法は,UVマップ上のテックセルと入力画像中のピクセルとの対応性を確立し,各テクセルの色を関連するピクセル値の重み付けとして計算する。
論文 参考訳(メタデータ) (2025-09-27T14:39:53Z) - Large Material Gaussian Model for Relightable 3D Generation [54.10879517395551]
物理ベースレンダリング(PBR)素材を用いた高品質な3Dコンテンツ作成のための新しいフレームワークを提案する。
また,本手法は,ベースライン法に比べて視覚的魅力が向上するだけでなく,材料モデリングも向上し,下流レンダリングの実用化を可能にした。
論文 参考訳(メタデータ) (2025-09-26T09:35:12Z) - PBR-SR: Mesh PBR Texture Super Resolution from 2D Image Priors [52.28858915766172]
PBR-SRは物理ベースレンダリング(PBR)テクスチャスーパーレゾリューション(SR)の新しい手法である
ゼロショット方式で低解像度(LR)PBR入力から高解像度で高品質なPBRテクスチャを出力する。
論文 参考訳(メタデータ) (2025-06-03T13:15:34Z) - ePBR: Extended PBR Materials in Image Synthesis [2.3241174970798126]
固有のイメージ表現は、バランスのとれたトレードオフを提供し、イメージを基本コンポーネントに分解する。
我々は、反射特性と透過特性の両方を組み込むために、固有画像表現を拡張した。
The Extended PBR (ePBR) Materials, we can effective editing with accurate control。
論文 参考訳(メタデータ) (2025-04-23T19:15:42Z) - IntrinsiX: High-Quality PBR Generation using Image Priors [49.90007540430264]
IntrinsiXはテキスト記述から高品質な内在画像を生成する新しい手法である。
シーンライティングを内蔵した既存のテキスト・ツー・イメージモデルとは対照的に,本手法では物理ベースのレンダリング(PBR)マップを推定する。
論文 参考訳(メタデータ) (2025-04-01T17:47:48Z) - MaterialMVP: Illumination-Invariant Material Generation via Multi-view PBR Diffusion [37.596740171045845]
物理ベースのレンダリング(PBR)は現代のコンピュータグラフィックスの基盤となり、3Dシーンにおける現実的な物質表現と照明相互作用を可能にしている。
本稿では3次元メッシュと画像プロンプトからPBRテクスチャを生成するための新しいエンド・ツー・エンドモデルを提案する。
論文 参考訳(メタデータ) (2025-03-13T11:57:30Z) - MatCLIP: Light- and Shape-Insensitive Assignment of PBR Material Models [42.42328559042189]
MatCLIPは、PBR材料の形状や光に敏感な記述子を抽出し、画像に基づいて可塑性テクスチャを3Dオブジェクトに割り当てる新しい手法である。
そこで本研究では,PBR表現の領域を写真や描画でブリッジする記述子を生成する。
MatCLIPの分類精度は76.6%で、PhotoShapeやMatAtlasのような最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2025-01-27T12:08:52Z) - Image-GS: Content-Adaptive Image Representation via 2D Gaussians [52.598772767324036]
本稿では,2次元ガウス放射率に基づくコンテンツ適応型画像表現であるImage-GSを紹介する。
リアルタイム使用のためにハードウェアフレンドリーな高速アクセスをサポートし、ピクセルをデコードするためには0.3KのMACしか必要としない。
テクスチャ圧縮、セマンティクス対応圧縮、共同画像圧縮と復元など、いくつかのアプリケーションでその汎用性を実証する。
論文 参考訳(メタデータ) (2024-07-02T00:45:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。