論文の概要: Intrinsic Image Fusion for Multi-View 3D Material Reconstruction
- arxiv url: http://arxiv.org/abs/2512.13157v1
- Date: Mon, 15 Dec 2025 10:05:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.617633
- Title: Intrinsic Image Fusion for Multi-View 3D Material Reconstruction
- Title(参考訳): 多視点3次元材料再構成のための固有画像融合
- Authors: Peter Kocsis, Lukas Höllein, Matthias Nießner,
- Abstract要約: 多視点画像から高品質な物理材料を再構成するIntrinsic Image Fusionを導入する。
本研究は, 合成シーンと実シーンの両方において, 素材のゆがみにおいて, 最先端の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 49.43509537480623
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce Intrinsic Image Fusion, a method that reconstructs high-quality physically based materials from multi-view images. Material reconstruction is highly underconstrained and typically relies on analysis-by-synthesis, which requires expensive and noisy path tracing. To better constrain the optimization, we incorporate single-view priors into the reconstruction process. We leverage a diffusion-based material estimator that produces multiple, but often inconsistent, candidate decompositions per view. To reduce the inconsistency, we fit an explicit low-dimensional parametric function to the predictions. We then propose a robust optimization framework using soft per-view prediction selection together with confidence-based soft multi-view inlier set to fuse the most consistent predictions of the most confident views into a consistent parametric material space. Finally, we use inverse path tracing to optimize for the low-dimensional parameters. Our results outperform state-of-the-art methods in material disentanglement on both synthetic and real scenes, producing sharp and clean reconstructions suitable for high-quality relighting.
- Abstract(参考訳): 多視点画像から高品質な物理材料を再構成するIntrinsic Image Fusionを導入する。
材料再構成は、非常に制約が低く、一般的には、高価でノイズの多い経路追跡を必要とする、分析・バイ・シンセシスに依存している。
最適化の制約を改善するため、単一ビューの事前処理を再構築プロセスに組み込む。
我々は拡散型物質推定器を利用して、ビュー毎に複数の、しかししばしば一貫性のない、候補分解を生成する。
不整合を低減するために,この予測に明示的な低次元パラメトリック関数を適合させる。
次に、信頼度に基づくソフト・マルチビュー・インレーサセットとともに、ソフト・パー・ビュー・予測選択を用いたロバストな最適化フレームワークを提案し、最も信頼度の高いビューの最も一貫性のある予測を一貫したパラメトリック・マテリアル空間に融合させる。
最後に,低次元パラメータの最適化に逆経路トレースを用いる。
その結果, 合成シーンと実シーンの両方において, 素材のゆがみにおける最先端の手法が向上し, 高品質な照明に適した鮮明でクリーンな再構築が実現された。
関連論文リスト
- MaterialRefGS: Reflective Gaussian Splatting with Multi-view Consistent Material Inference [83.38607296779423]
より物理的な環境モデルを用いた多視点一貫した物質推定がガウススプラッティングによる正確な反射の学習の鍵となることを示す。
本手法は照明と幾何学の両方を忠実に復元し,新しいビュー合成における最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-10-13T13:29:20Z) - GS-2M: Gaussian Splatting for Joint Mesh Reconstruction and Material Decomposition [0.0]
3次元ガウススプラッティングに基づくマルチビュー画像からのメッシュ再構成と材料分解のための統一解を提案する。
以前の作業はこれらのタスクを別々に処理し、非常に反射的な表面を再構築するのに苦労した。
提案手法は, この2つの問題に対して, 描画深度と正規度に関する属性を協調的に最適化することによって対処する。
論文 参考訳(メタデータ) (2025-09-26T12:43:33Z) - RelitLRM: Generative Relightable Radiance for Large Reconstruction Models [52.672706620003765]
本稿では,新しい照明下での3Dオブジェクトの高品質なガウススプレイティング表現を生成するためのRelitLRMを提案する。
複雑なキャプチャと遅い最適化を必要とする従来の逆レンダリングとは異なり、RelitLRMはフィードフォワードトランスフォーマーベースのモデルを採用している。
スパースビューフィードフォワードRelitLRMは、最先端の密集ビュー最適化ベースラインに対して、競争力のあるリライティング結果を提供する。
論文 参考訳(メタデータ) (2024-10-08T17:40:01Z) - Inverse Rendering using Multi-Bounce Path Tracing and Reservoir Sampling [17.435649250309904]
本稿では,新しい2段階逆レンダリングフレームワークであるMIRReSを紹介する。
提案手法は, ステージ1で明示的な幾何(三角形メッシュ)を抽出し, より現実的な物理ベースの逆レンダリングモデルを導入する。
本手法は,自己陰影や内部反射を含む間接照明を効果的に推定する。
論文 参考訳(メタデータ) (2024-06-24T07:00:57Z) - IntrinsicAnything: Learning Diffusion Priors for Inverse Rendering Under Unknown Illumination [37.96484120807323]
本稿では,未知の静止照明条件下で撮影されたポーズ画像から対象物質を回収することを目的とする。
我々は、最適化プロセスの正規化のための生成モデルを用いて、その材料を事前に学習する。
実世界および合成データセットを用いた実験により,本手法が材料回収における最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-04-17T17:45:08Z) - Riggable 3D Face Reconstruction via In-Network Optimization [58.016067611038046]
本稿では,単眼画像からの3次元顔再構成法を提案する。
表情、ポーズ、照明を含む画像ごとのパーソナライズされた顔リグとパラメータを共同で推定する。
実験により,SOTA復元精度,ロバスト性,一般化能力が得られた。
論文 参考訳(メタデータ) (2021-04-08T03:53:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。