論文の概要: MatE: Material Extraction from Single-Image via Geometric Prior
- arxiv url: http://arxiv.org/abs/2512.18312v1
- Date: Sat, 20 Dec 2025 10:53:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.284496
- Title: MatE: Material Extraction from Single-Image via Geometric Prior
- Title(参考訳): MatE: 幾何学的前駆体による単一画像からの物質抽出
- Authors: Zeyu Zhang, Wei Zhai, Jian Yang, Yang Cao,
- Abstract要約: MatEは、制約のない実世界の条件下で撮影された単一の画像から、タイル状PBR材料を生成する新しい方法である。
提案手法の有効性とロバスト性を実証し,実世界の画像から現実的な素材を作成できるようにする。
- 参考スコア(独自算出の注目度): 36.8533172704247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The creation of high-fidelity, physically-based rendering (PBR) materials remains a bottleneck in many graphics pipelines, typically requiring specialized equipment and expert-driven post-processing. To democratize this process, we present MatE, a novel method for generating tileable PBR materials from a single image taken under unconstrained, real-world conditions. Given an image and a user-provided mask, MatE first performs coarse rectification using an estimated depth map as a geometric prior, and then employs a dual-branch diffusion model. Leveraging a learned consistency from rotation-aligned and scale-aligned training data, this model further rectify residual distortions from the coarse result and translate it into a complete set of material maps, including albedo, normal, roughness and height. Our framework achieves invariance to the unknown illumination and perspective of the input image, allowing for the recovery of intrinsic material properties from casual captures. Through comprehensive experiments on both synthetic and real-world data, we demonstrate the efficacy and robustness of our approach, enabling users to create realistic materials from real-world image.
- Abstract(参考訳): 高忠実で物理ベースのレンダリング(PBR)素材の作成は、多くのグラフィックスパイプラインにおいてボトルネックであり、通常は特殊な機器と専門家主導の後処理を必要とする。
このプロセスの民主化を目的として,制約のない実世界の条件下で撮影された単一画像からタイル状PBR材料を生成する新しい方法であるMetEを提案する。
画像とユーザが提供するマスクが与えられた後、MateEはまず推定深度マップを幾何学的先行として粗い補正を行い、次に二重分岐拡散モデルを用いる。
このモデルは、回転整列およびスケール整列トレーニングデータから学習された一貫性を利用して、粗い結果からの残留歪みを補正し、アルベド、正規性、粗さ、高さを含む完全な物質マップに変換する。
筆者らのフレームワークは,入力画像の未知の照明と視点への不均一性を実現し,カジュアルキャプチャーから固有材料特性の回復を可能にする。
合成データと実世界のデータの両方に関する包括的な実験を通じて、我々のアプローチの有効性とロバスト性を実証し、実世界の画像から現実的な素材を作成できるようにする。
関連論文リスト
- MatDecompSDF: High-Fidelity 3D Shape and PBR Material Decomposition from Multi-View Images [20.219010684946888]
MatDecompSDFは、高忠実度3D形状を復元し、その物理的特性を多視点画像から分解するフレームワークである。
本手法は,標準のグラフィックスパイプラインにシームレスに統合可能な,編集可能で再生可能なアセットを生成する。
論文 参考訳(メタデータ) (2025-07-07T08:22:32Z) - Materialist: Physically Based Editing Using Single-Image Inverse Rendering [47.85234717907478]
マテリアルスト(Materist)は、学習に基づくアプローチと物理的にベースとしたプログレッシブ・差別化可能なレンダリングを組み合わせる方法である。
我々のアプローチは、マテリアル編集、オブジェクト挿入、リライトなど、幅広いアプリケーションを可能にする。
実験は、合成および実世界のデータセット間で強力なパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-01-07T11:52:01Z) - IDArb: Intrinsic Decomposition for Arbitrary Number of Input Views and Illuminations [64.07859467542664]
画像から幾何学的および物質的情報をキャプチャすることは、コンピュータビジョンとグラフィックスの基本的な課題である。
従来の最適化に基づく手法では、密集した多視点入力から幾何学、材料特性、環境照明を再構築するために数時間の計算時間を必要とすることが多い。
IDArbは、様々な照明条件下で、任意の画像に対して本質的な分解を行うために設計された拡散モデルである。
論文 参考訳(メタデータ) (2024-12-16T18:52:56Z) - IntrinsicAnything: Learning Diffusion Priors for Inverse Rendering Under Unknown Illumination [37.96484120807323]
本稿では,未知の静止照明条件下で撮影されたポーズ画像から対象物質を回収することを目的とする。
我々は、最適化プロセスの正規化のための生成モデルを用いて、その材料を事前に学習する。
実世界および合成データセットを用いた実験により,本手法が材料回収における最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-04-17T17:45:08Z) - Intrinsic Image Diffusion for Indoor Single-view Material Estimation [55.276815106443976]
室内シーンの外観分解のための生成モデルIntrinsic Image Diffusionを提案する。
1つの入力ビューから、アルベド、粗さ、および金属地図として表される複数の材料説明をサンプリングする。
提案手法は,PSNRで1.5dB$,アルベド予測で45%のFIDスコアを達成し,よりシャープで,より一貫性があり,より詳細な資料を生成する。
論文 参考訳(メタデータ) (2023-12-19T15:56:19Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - MaterialGAN: Reflectance Capture using a Generative SVBRDF Model [33.578080406338266]
本稿では,StyleGAN2をベースとした深層生成畳み込みネットワークであるMaterialGANを提案する。
逆レンダリングフレームワークにおいて,MaterialGANは強力な素材として利用できることを示す。
携帯端末を用いたフラッシュ照明下で撮影された画像からSVBRDFを再構成する作業において,この枠組みを実証する。
論文 参考訳(メタデータ) (2020-09-30T21:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。