論文の概要: An evaluation of SVBRDF Prediction from Generative Image Models for Appearance Modeling of 3D Scenes
- arxiv url: http://arxiv.org/abs/2512.13950v1
- Date: Mon, 15 Dec 2025 23:06:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.518985
- Title: An evaluation of SVBRDF Prediction from Generative Image Models for Appearance Modeling of 3D Scenes
- Title(参考訳): 3次元シーンの外観モデリングのための生成画像モデルからのSVBRDF予測の評価
- Authors: Alban Gauthier, Valentin Deschaintre, Alexandre Lanvin, Fredo Durand, Adrien Bousseau, George Drettakis,
- Abstract要約: デジタルコンテンツ制作は、深層生成モデルの出現によって大きな変化を経験している。
本稿では,SVBRDF予測の課題と可能性について分析する。
- 参考スコア(独自算出の注目度): 45.31790831367829
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Digital content creation is experiencing a profound change with the advent of deep generative models. For texturing, conditional image generators now allow the synthesis of realistic RGB images of a 3D scene that align with the geometry of that scene. For appearance modeling, SVBRDF prediction networks recover material parameters from RGB images. Combining these technologies allows us to quickly generate SVBRDF maps for multiple views of a 3D scene, which can be merged to form a SVBRDF texture atlas of that scene. In this paper, we analyze the challenges and opportunities for SVBRDF prediction in the context of such a fast appearance modeling pipeline. On the one hand, single-view SVBRDF predictions might suffer from multiview incoherence and yield inconsistent texture atlases. On the other hand, generated RGB images, and the different modalities on which they are conditioned, can provide additional information for SVBRDF estimation compared to photographs. We compare neural architectures and conditions to identify designs that achieve high accuracy and coherence. We find that, surprisingly, a standard UNet is competitive with more complex designs. Project page: http://repo-sam.inria.fr/nerphys/svbrdf-evaluation
- Abstract(参考訳): デジタルコンテンツ制作は、深層生成モデルの出現によって大きな変化を経験している。
テクスチャ作成のために、条件付き画像生成装置は、そのシーンの幾何学と整合した3DシーンのリアルなRGB画像の合成を可能にする。
外観モデリングでは、SVBRDF予測ネットワークはRGB画像から材料パラメータを復元する。
これらの技術を組み合わせることで、3Dシーンの複数ビュー用のSVBRDFマップを迅速に生成し、そのシーンのSVBRDFテクスチャアトラスを形成することができる。
本稿では,SVBRDF予測の課題と機会を,このような高速な外見モデリングパイプラインの文脈で分析する。
一方,単視点SVBRDF予測は多視点不整合に悩まされ,無矛盾なテクスチャアトラスが生じる可能性がある。
一方、生成したRGB画像と、それらが条件付けされている様々なモダリティは、写真と比較してSVBRDF推定のための追加情報を提供することができる。
ニューラルネットワークと条件を比較し、高精度でコヒーレンスな設計を識別する。
意外なことに、標準のUNetはより複雑な設計と競合している。
プロジェクトページ:http://repo-sam.inria.fr/nerphys/svbrdf-evaluation
関連論文リスト
- Novel View Synthesis with Gaussian Splatting: Impact on Photogrammetry Model Accuracy and Resolution [0.0]
実世界のシーンから画像のデータセットを作成し、両方の方法で3Dモデルを構築しました。
構造類似度指数(SSIM)、ピーク信号対雑音比(PSNR)、学習画像パッチ類似度(LPIPS)、USAF解像度チャートに基づくlp/mm解像度を用いたモデルを比較した。
論文 参考訳(メタデータ) (2025-08-10T20:57:36Z) - Pandora3D: A Comprehensive Framework for High-Quality 3D Shape and Texture Generation [56.862552362223425]
本稿では,多様な入力プロンプトから高品質な3次元形状とテクスチャを生成するための包括的枠組みを提案する。
フレームワークは3次元形状生成とテクスチャ生成で構成されている。
本報告では,フレームワークの改良と拡張に向けたシステムアーキテクチャ,実験結果,今後の方向性について述べる。
論文 参考訳(メタデータ) (2025-02-20T04:22:30Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - CompNVS: Novel View Synthesis with Scene Completion [83.19663671794596]
本稿では,スパースグリッドに基づくニューラルシーン表現を用いた生成パイプラインを提案する。
画像特徴を3次元空間に符号化し、幾何学的完備化ネットワークとその後のテクスチャ塗布ネットワークを用いて、欠落した領域を外挿する。
フォトリアリスティック画像列は、整合性関連微分可能レンダリングによって最終的に得られる。
論文 参考訳(メタデータ) (2022-07-23T09:03:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。