論文の概要: PI-Light: Physics-Inspired Diffusion for Full-Image Relighting
- arxiv url: http://arxiv.org/abs/2601.22135v1
- Date: Thu, 29 Jan 2026 18:55:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:50.098529
- Title: PI-Light: Physics-Inspired Diffusion for Full-Image Relighting
- Title(参考訳): PI-Light:物理にインスパイアされたフルイメージリライティングのための拡散
- Authors: Zhexin Liang, Zhaoxi Chen, Yongwei Chen, Tianyi Wei, Tengfei Wang, Xingang Pan,
- Abstract要約: 物理インスパイアされた拡散モデルを利用する2段階のフレームワークである、フルイメージのreLight($-Light, PI-Light)について、物理インスパイアされた拡散について紹介する。
本設計では, (i) バッチ認識, (ii) 物理的に可塑性光輸送を強制する物理誘導型ニューラルネットワークレンダリングモジュール, (iii) 物理的に意味のあるランドスケープに向けてトレーニングダイナミクスを規則化する物理誘導型損失を取り入れた。
実験により、$$-Lightは様々な材料にまたがるスペクトルのハイライトと拡散反射を合成し、従来のアプローチに比べて現実のシーンに優れた一般化を実現していることが示された。
- 参考スコア(独自算出の注目度): 26.42056487076843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Full-image relighting remains a challenging problem due to the difficulty of collecting large-scale structured paired data, the difficulty of maintaining physical plausibility, and the limited generalizability imposed by data-driven priors. Existing attempts to bridge the synthetic-to-real gap for full-scene relighting remain suboptimal. To tackle these challenges, we introduce Physics-Inspired diffusion for full-image reLight ($π$-Light, or PI-Light), a two-stage framework that leverages physics-inspired diffusion models. Our design incorporates (i) batch-aware attention, which improves the consistency of intrinsic predictions across a collection of images, (ii) a physics-guided neural rendering module that enforces physically plausible light transport, (iii) physics-inspired losses that regularize training dynamics toward a physically meaningful landscape, thereby enhancing generalizability to real-world image editing, and (iv) a carefully curated dataset of diverse objects and scenes captured under controlled lighting conditions. Together, these components enable efficient finetuning of pretrained diffusion models while also providing a solid benchmark for downstream evaluation. Experiments demonstrate that $π$-Light synthesizes specular highlights and diffuse reflections across a wide variety of materials, achieving superior generalization to real-world scenes compared with prior approaches.
- Abstract(参考訳): 大規模な構造化されたペアデータを集めるのが難しいこと、物理的妥当性を維持するのが難しいこと、データ駆動の先行者によって課される限定的な一般化性のため、フルイメージのリライトは依然として難しい問題である。
合成から現実へのギャップを埋める試みは、まだ準最適である。
これらの課題に対処するために、物理学にインスパイアされた拡散モデルを利用する2段階のフレームワークであるフルイメージのreLight(π$-Light、PI-Light)について物理にインスパイアされた拡散を導入する。
私たちのデザインは組み込まれています
(i)画像集合における本質的な予測の整合性を改善するバッチ認識注意。
(ii)物理的に可視光輸送を強制する物理誘導型ニューラルレンダリングモジュール。
三 物理に触発された損失で、運動力学を物理的に意味のある風景に向けて規則化し、現実世界の画像編集への一般化性を高めること。
(四)制御照明条件下で撮影した多彩な物体・場面の注意深く収集したデータセット。
これらのコンポーネントは共に、事前訓練された拡散モデルの効率的な微調整を可能にすると同時に、下流評価のための確固としたベンチマークを提供する。
実験により、$π$-Lightは様々な材料にまたがるスペクトルのハイライトと拡散反射を合成し、従来のアプローチに比べて現実のシーンに優れた一般化を実現することが示されている。
関連論文リスト
- Learning to Remove Lens Flare in Event Camera [56.9171469873838]
イベントカメラデータからレンズフレアを除去する最初のフレームワークであるE-DeflareDeflareを提案する。
まず、非線形抑制機構の物理基底フォワードモデルを導出した理論基盤を確立する。
このベンチマークを利用して、最先端の復元性能を実現するE-DeflareNetを設計する。
論文 参考訳(メタデータ) (2025-12-09T18:59:57Z) - Edit2Perceive: Image Editing Diffusion Models Are Strong Dense Perceivers [55.15722080205737]
Edit2Perceiveは、深度、正規度、マッティングの編集モデルを適応させる統合拡散フレームワークである。
私たちの単一ステップの決定論的推論は、比較的小さなデータセットでトレーニングしながら、より高速なランタイムをもたらす。
論文 参考訳(メタデータ) (2025-11-24T01:13:51Z) - MaterialRefGS: Reflective Gaussian Splatting with Multi-view Consistent Material Inference [83.38607296779423]
より物理的な環境モデルを用いた多視点一貫した物質推定がガウススプラッティングによる正確な反射の学習の鍵となることを示す。
本手法は照明と幾何学の両方を忠実に復元し,新しいビュー合成における最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-10-13T13:29:20Z) - UniRelight: Learning Joint Decomposition and Synthesis for Video Relighting [85.27994475113056]
我々はアルベドを共同で推定し、単一のパスで信頼出力を合成する汎用的アプローチを導入する。
本モデルは,多様な領域にまたがる強力な一般化を示し,視覚的忠実度と時間的整合性の両方において,従来の手法を超越している。
論文 参考訳(メタデータ) (2025-06-18T17:56:45Z) - MV-CoLight: Efficient Object Compositing with Consistent Lighting and Shadow Generation [19.46962637673285]
MV-CoLightは2Dおよび3Dシーンで合成される照度一貫性のあるオブジェクトのためのフレームワークである。
2次元画像入力と3次元ガウスシーン表現をシームレスに整列するために、ヒルベルト曲線に基づく写像を用いる。
実験では、標準ベンチマークとデータセット間で、最先端の調和した結果を実証した。
論文 参考訳(メタデータ) (2025-05-27T17:53:02Z) - Neural LightRig: Unlocking Accurate Object Normal and Material Estimation with Multi-Light Diffusion [45.81230812844384]
本稿では,2次元拡散先行から補助的な多照光条件を活用することにより,本質的な推定を促進する新しいフレームワークを提案する。
我々は、U-Netバックボーンで大きなGバッファモデルを訓練し、表面の正常さや材料を正確に予測する。
論文 参考訳(メタデータ) (2024-12-12T18:58:09Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。