論文の概要: SuperMat: Physically Consistent PBR Material Estimation at Interactive Rates
- arxiv url: http://arxiv.org/abs/2411.17515v1
- Date: Tue, 26 Nov 2024 15:26:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:34:46.149230
- Title: SuperMat: Physically Consistent PBR Material Estimation at Interactive Rates
- Title(参考訳): SuperMat: 相互作用速度における物理的に一貫性のあるPBR材料推定
- Authors: Yijia Hong, Yuan-Chen Guo, Ran Yi, Yulong Chen, Yan-Pei Cao, Lizhuang Ma,
- Abstract要約: 一段階の推論で高品質な材料分解を実現する一段階のフレームワークであるSuperMatを提案する。
これにより、アルベド、金属、粗さマップをミリ秒スケールで分解しながら、知覚的および再帰的な損失を伴うエンドツーエンドのトレーニングが可能になる。
我々は、UVリファインメントネットワークを通じて、我々のフレームワークを3Dオブジェクトに拡張し、効率を保ちながら視点を越えて一貫した材料推定を可能にする。
- 参考スコア(独自算出の注目度): 46.21359869741915
- License:
- Abstract: Decomposing physically-based materials from images into their constituent properties remains challenging, particularly when maintaining both computational efficiency and physical consistency. While recent diffusion-based approaches have shown promise, they face substantial computational overhead due to multiple denoising steps and separate models for different material properties. We present SuperMat, a single-step framework that achieves high-quality material decomposition with one-step inference. This enables end-to-end training with perceptual and re-render losses while decomposing albedo, metallic, and roughness maps at millisecond-scale speeds. We further extend our framework to 3D objects through a UV refinement network, enabling consistent material estimation across viewpoints while maintaining efficiency. Experiments demonstrate that SuperMat achieves state-of-the-art PBR material decomposition quality while reducing inference time from seconds to milliseconds per image, and completes PBR material estimation for 3D objects in approximately 3 seconds.
- Abstract(参考訳): 特に計算効率と物理的整合性の両方を維持する場合、画像から構成特性に物理的に基いた材料を分解することは困難である。
最近の拡散に基づくアプローチは将来性を示しているが、複数のデノナイジングステップと異なる材料特性の分離モデルのために計算オーバーヘッドがかなり大きい。
一段階の推論で高品質な材料分解を実現する一段階のフレームワークであるSuperMatを提案する。
これにより、アルベド、金属、粗さマップをミリ秒スケールで分解しながら、知覚的および再帰的な損失を伴うエンドツーエンドのトレーニングが可能になる。
我々は、UVリファインメントネットワークを通じて、我々のフレームワークをさらに3Dオブジェクトに拡張し、効率を保ちながら視点全体にわたって一貫した物質推定を可能にする。
実験により,SuperMatは画像毎の推測時間を数秒からミリ秒に短縮しつつ,最先端のPBR材料分解品質を実現し,約3秒でPBR材料推定を完了した。
関連論文リスト
- Boosting 3D Object Generation through PBR Materials [32.732511476490316]
物理ベースレンダリング(PBR)材料の観点から,生成した3Dオブジェクトの品質を高める新しい手法を提案する。
アルベドやバンプマップでは、合成データに微調整された安定拡散を利用してこれらの値を抽出する。
粗さと金属度マップについては,対話的な調整を行うためのセミオートマチックなプロセスを採用する。
論文 参考訳(メタデータ) (2024-11-25T04:20:52Z) - Material Anything: Generating Materials for Any 3D Object via Diffusion [39.46553064506517]
本稿では,3次元オブジェクトのための物理的材料を生成するための,完全自動統合拡散フレームワークを提案する。
Material Anythingは、多様な照明条件下でオブジェクトに適応可能な堅牢でエンドツーエンドのソリューションを提供する。
論文 参考訳(メタデータ) (2024-11-22T18:59:39Z) - Edify 3D: Scalable High-Quality 3D Asset Generation [53.86838858460809]
Edify 3Dは高品質な3Dアセット生成のために設計された高度なソリューションである。
提案手法は,2分間で詳細な形状,清潔な形状のトポロジ,高分解能なテクスチャ,材料で高品質な3Dアセットを生成できる。
論文 参考訳(メタデータ) (2024-11-11T17:07:43Z) - MaterialFusion: Enhancing Inverse Rendering with Material Diffusion Priors [67.74705555889336]
本稿では,テクスチャと材料特性に先立って2Dを組み込んだ,従来の3次元逆レンダリングパイプラインであるMaterialFusionを紹介する。
本稿では,2次元拡散モデルであるStableMaterialについて述べる。
種々の照明条件下で, 合成および実物体の4つのデータセット上でのMaterialFusionの照度特性を検証した。
論文 参考訳(メタデータ) (2024-09-23T17:59:06Z) - Multi-scale Restoration of Missing Data in Optical Time-series Images with Masked Spatial-Temporal Attention Network [0.6675733925327885]
リモートセンシング画像に欠落した値を出力する既存の方法は、補助情報を完全に活用できない。
本稿では,時系列リモートセンシング画像の再構成のためのMS2という,深層学習に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-19T09:05:05Z) - End-to-End Model-based Deep Learning for Dual-Energy Computed Tomography Material Decomposition [53.14236375171593]
本稿では,定量化のためのエンド・ツー・エンド材料分解(E2E-DEcomp)と呼ばれる深層学習手法を提案する。
AAPMスペクトルCTデータセットにおける直接E2E-DEcomp法の有効性を示す。
論文 参考訳(メタデータ) (2024-06-01T16:20:59Z) - MaterialSeg3D: Segmenting Dense Materials from 2D Priors for 3D Assets [63.284244910964475]
本稿では,2次元のセマンティクスから基礎となる物質を推定する3次元アセット素材生成フレームワークを提案する。
このような先行モデルに基づいて,材料を三次元空間で解析する機構を考案する。
論文 参考訳(メタデータ) (2024-04-22T07:00:17Z) - IntrinsicAnything: Learning Diffusion Priors for Inverse Rendering Under Unknown Illumination [37.96484120807323]
本稿では,未知の静止照明条件下で撮影されたポーズ画像から対象物質を回収することを目的とする。
我々は、最適化プロセスの正規化のための生成モデルを用いて、その材料を事前に学習する。
実世界および合成データセットを用いた実験により,本手法が材料回収における最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-04-17T17:45:08Z) - Intrinsic Image Diffusion for Indoor Single-view Material Estimation [55.276815106443976]
室内シーンの外観分解のための生成モデルIntrinsic Image Diffusionを提案する。
1つの入力ビューから、アルベド、粗さ、および金属地図として表される複数の材料説明をサンプリングする。
提案手法は,PSNRで1.5dB$,アルベド予測で45%のFIDスコアを達成し,よりシャープで,より一貫性があり,より詳細な資料を生成する。
論文 参考訳(メタデータ) (2023-12-19T15:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。