論文の概要: Chord: Chain of Rendering Decomposition for PBR Material Estimation from Generated Texture Images
- arxiv url: http://arxiv.org/abs/2509.09952v1
- Date: Fri, 12 Sep 2025 04:03:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.972409
- Title: Chord: Chain of Rendering Decomposition for PBR Material Estimation from Generated Texture Images
- Title(参考訳): コード:生成テクスチャ画像からのPBR材料推定のためのレンダリング分解の連鎖
- Authors: Zhi Ying, Boxiang Rong, Jingyu Wang, Maoyuan Xu,
- Abstract要約: PBR材料生成のための新しい2段階生成・推定フレームワークを提案する。
生成段階では、微調整拡散モデルがユーザ入力に合わせた色付けされたタイル状テクスチャ画像を合成する。
推定段階では,事前に抽出した表現を単一ステップの画像条件拡散モデルに変換することで,SVBRDFチャネルを逐次予測する連鎖分解方式を導入する。
- 参考スコア(独自算出の注目度): 10.46170854352924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Material creation and reconstruction are crucial for appearance modeling but traditionally require significant time and expertise from artists. While recent methods leverage visual foundation models to synthesize PBR materials from user-provided inputs, they often fall short in quality, flexibility, and user control. We propose a novel two-stage generate-and-estimate framework for PBR material generation. In the generation stage, a fine-tuned diffusion model synthesizes shaded, tileable texture images aligned with user input. In the estimation stage, we introduce a chained decomposition scheme that sequentially predicts SVBRDF channels by passing previously extracted representation as input into a single-step image-conditional diffusion model. Our method is efficient, high quality, and enables flexible user control. We evaluate our approach against existing material generation and estimation methods, demonstrating superior performance. Our material estimation method shows strong robustness on both generated textures and in-the-wild photographs. Furthermore, we highlight the flexibility of our framework across diverse applications, including text-to-material, image-to-material, structure-guided generation, and material editing.
- Abstract(参考訳): 素材の作成と復元は外観のモデリングには不可欠であるが、伝統的にはアーティストからかなりの時間と専門知識を必要とする。
近年の手法では、視覚基盤モデルを用いてユーザが提供する入力からPBR素材を合成するが、品質、柔軟性、ユーザ制御が不足することが多い。
PBR材料生成のための新しい2段階生成・推定フレームワークを提案する。
生成段階では、微調整拡散モデルがユーザ入力に合わせた色付けされたタイル状テクスチャ画像を合成する。
推定段階では,事前に抽出した表現を単一ステップの画像条件拡散モデルに変換することで,SVBRDFチャネルを逐次予測する連鎖分解方式を導入する。
我々の方法は効率的で高品質であり、柔軟なユーザ制御を可能にします。
我々は,既存の材料生成と推定手法に対するアプローチを評価し,優れた性能を示す。
材料推定法は, 生成したテクスチャと被写体写真の両方に強いロバスト性を示す。
さらに,テキスト・ツー・マテリアル,画像・ツー・マテリアル,構造誘導生成,素材編集など,さまざまなアプリケーションにおけるフレームワークの柔軟性を強調した。
関連論文リスト
- IntrinsiX: High-Quality PBR Generation using Image Priors [49.90007540430264]
IntrinsiXはテキスト記述から高品質な内在画像を生成する新しい手法である。
シーンライティングを内蔵した既存のテキスト・ツー・イメージモデルとは対照的に,本手法では物理ベースのレンダリング(PBR)マップを推定する。
論文 参考訳(メタデータ) (2025-04-01T17:47:48Z) - Coherent and Multi-modality Image Inpainting via Latent Space Optimization [61.99406669027195]
PILOT(intextbfPainting vtextbfIa textbfOptextbfTimization)は、新しいテキストセマンティック中央化とテキストセマンティック保存損失に基づく最適化手法である。
本手法は,背景とのコヒーレンスを維持しつつ,ユーザが提供するプロンプトに対して高い忠実度を示す塗装領域を生成できる潜時空間を探索する。
論文 参考訳(メタデータ) (2024-07-10T19:58:04Z) - StableMaterials: Enhancing Diversity in Material Generation via Semi-Supervised Learning [2.037819652873519]
本稿では,フォトリアリスティック物理ベースレンダリング(PBR)材料を生成する新しいアプローチであるStableMaterialsを紹介する。
本手法は,既存の大規模画像生成モデルから知識を抽出するために,逆行訓練を用いる。
拡散ステップの少ない視覚的アーティファクトを除去する新しいタイルビリティ手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T16:29:46Z) - YaART: Yet Another ART Rendering Technology [119.09155882164573]
そこで本研究では,ヒトの嗜好に適合する新しい生産段階のテキスト・ツー・イメージ拡散モデルYaARTを紹介した。
これらの選択がトレーニングプロセスの効率と生成された画像の品質にどのように影響するかを分析する。
高品質な画像の小さなデータセットでトレーニングされたモデルが、より大きなデータセットでトレーニングされたモデルとうまく競合できることを実証する。
論文 参考訳(メタデータ) (2024-04-08T16:51:19Z) - Intrinsic Image Diffusion for Indoor Single-view Material Estimation [55.276815106443976]
室内シーンの外観分解のための生成モデルIntrinsic Image Diffusionを提案する。
1つの入力ビューから、アルベド、粗さ、および金属地図として表される複数の材料説明をサンプリングする。
提案手法は,PSNRで1.5dB$,アルベド予測で45%のFIDスコアを達成し,よりシャープで,より一貫性があり,より詳細な資料を生成する。
論文 参考訳(メタデータ) (2023-12-19T15:56:19Z) - Kandinsky: an Improved Text-to-Image Synthesis with Image Prior and
Latent Diffusion [50.59261592343479]
本稿では、潜伏拡散アーキテクチャの新しい探索であるKandinsky1を紹介する。
提案したモデルは、CLIPのイメージ埋め込みにテキスト埋め込みをマッピングするために別々に訓練されている。
また,テキスト・ツー・イメージ生成,画像融合,テキスト・画像融合,画像のバリエーション生成,テキスト・インペイント/アウトペイントなど,多様な生成モードをサポートするユーザフレンドリーなデモシステムも展開した。
論文 参考訳(メタデータ) (2023-10-05T12:29:41Z) - MatFuse: Controllable Material Generation with Diffusion Models [10.993516790237503]
MatFuseは3D素材の作成と編集に拡散モデルの生成力を利用する統一的なアプローチである。
本手法は,カラーパレット,スケッチ,テキスト,画像など,複数のコンディショニング源を統合し,創造性を向上する。
複数の条件設定下でのMatFuseの有効性を実証し,材料編集の可能性を探る。
論文 参考訳(メタデータ) (2023-08-22T12:54:48Z) - MaterialGAN: Reflectance Capture using a Generative SVBRDF Model [33.578080406338266]
本稿では,StyleGAN2をベースとした深層生成畳み込みネットワークであるMaterialGANを提案する。
逆レンダリングフレームワークにおいて,MaterialGANは強力な素材として利用できることを示す。
携帯端末を用いたフラッシュ照明下で撮影された画像からSVBRDFを再構成する作業において,この枠組みを実証する。
論文 参考訳(メタデータ) (2020-09-30T21:33:00Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。