論文の概要: Joint Shadow Generation and Relighting via Light-Geometry Interaction Maps
- arxiv url: http://arxiv.org/abs/2602.21820v1
- Date: Wed, 25 Feb 2026 11:47:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.818649
- Title: Joint Shadow Generation and Relighting via Light-Geometry Interaction Maps
- Title(参考訳): 光ジオメトリ相互作用マップによる共同シャドウ生成とリライティング
- Authors: Shan Wang, Peixia Li, Chenchen Xu, Ziang Cheng, Jiayu Yang, Hongdong Li, Pulak Purkait,
- Abstract要約: 単分子深度から光を識別する新しい表現である光幾何相互作用マップを提案する。
LGIは、オフザシェルフ2.5D深度マップ予測から計算された、確実かつ正確に光と影の相互作用をキャプチャする。
LGIをブリッジマッチングした生成バックボーンに埋め込むことで、曖昧さを低減し、物理的に一貫した光陰性推論を強制する。
- 参考スコア(独自算出の注目度): 51.82696819319878
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose Light-Geometry Interaction (LGI) maps, a novel representation that encodes light-aware occlusion from monocular depth. Unlike ray tracing, which requires full 3D reconstruction, LGI captures essential light-shadow interactions reliably and accurately, computed from off-the-shelf 2.5D depth map predictions. LGI explicitly ties illumination direction to geometry, providing a physics-inspired prior that constrains generative models. Without such prior, these models often produce floating shadows, inconsistent illumination, and implausible shadow geometry. Building on this representation, we propose a unified pipeline for joint shadow generation and relighting - unlike prior methods that treat them as disjoint tasks - capturing the intrinsic coupling of illumination and shadowing essential for modeling indirect effects. By embedding LGI into a bridge-matching generative backbone, we reduce ambiguity and enforce physically consistent light-shadow reasoning. To enable effective training, we curated the first large-scale benchmark dataset for joint shadow and relighting, covering reflections, transparency, and complex interreflections. Experiments show significant gains in realism and consistency across synthetic and real images. LGI thus bridges geometry-inspired rendering with generative modeling, enabling efficient, physically consistent shadow generation and relighting.
- Abstract(参考訳): 単眼深度からの光認識の排除をエンコードする新しい表現であるLGIマップを提案する。
完全な3D再構成を必要とするレイトレーシングとは異なり、LGIはオフザシェルフ2.5D深度マップの予測から計算された光と影の相互作用を確実かつ正確に捉えている。
LGIは光の方向を幾何学と明確に結び付け、生成モデルに制約を与える物理に触発された事前を与える。
このような先行がなければ、これらのモデルはしばしば浮動小数点影、一貫性のない照明、そして不可解な影幾何学を生成する。
この表現に基づいて、結合シャドウ生成とリライティングのための統一パイプラインを提案する - それらを非結合的なタスクとして扱う従来の方法とは異なり、間接効果のモデル化に不可欠な照明とシャドウの本質的な結合を捉える。
LGIをブリッジマッチングした生成バックボーンに埋め込むことで、曖昧さを低減し、物理的に一貫した光陰性推論を強制する。
効果的なトレーニングを実現するために、私たちは、共同シャドウとリライティング、反射、透明性、複雑な相互反射をカバーする、最初の大規模なベンチマークデータセットをキュレートしました。
実験では、合成画像と実画像の間でリアリズムと一貫性が著しく向上した。
したがって、LGIはジオメトリにインスパイアされたレンダリングを生成モデリングでブリッジし、効率的で物理的に一貫した影の生成とリライトを可能にする。
関連論文リスト
- Physics-Grounded Shadow Generation from Monocular 3D Geometry Priors and Approximate Light Direction [48.727438709248]
影の形成の物理学において、オクルーダーは、それ以外は表面に到達するであろう光源から放たれるいくつかの光線を遮蔽し、オクルーダーのシルエットに続く影を形成する。
そこで本研究では,物理モデル(幾何学と照明)を深層学習に基づく影生成に組み込む新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-05T21:52:23Z) - KPLM-STA: Physically-Accurate Shadow Synthesis for Human Relighting via Keypoint-Based Light Modeling [10.273365471847102]
キーポイント線形モデル(KPLM)とシャドートライアングルアルゴリズム(STA)に基づく新しい影生成フレームワークを提案する。
KPLMは9つのキーポイントと1つのバウンディングブロックを使って人体を明瞭に表現し、物理的にもっともらしい影の投影と関節のダイナミックシェーディングを可能にした。
STAはさらに、明示的な幾何学的定式化を通じて影角、長さ、空間位置を計算することにより、幾何学的精度を向上させる。
論文 参考訳(メタデータ) (2025-11-11T12:28:42Z) - Generalizable and Relightable Gaussian Splatting for Human Novel View Synthesis [49.67420486373202]
GRGSは、多彩な照明条件下での高忠実なヒューマン・ノベル・ビュー・シンセサイザーのための一般的な3Dガウスのフレームワークである。
我々は, 精密深度および表面の正常度を予測するために, 合成依存データに基づいて学習した照明対応幾何微細化(LGR)モジュールを提案する。
論文 参考訳(メタデータ) (2025-05-27T17:59:47Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - GI-GS: Global Illumination Decomposition on Gaussian Splatting for Inverse Rendering [6.820642721852439]
GI-GSは3次元ガウススティング(3DGS)と遅延シェーディングを利用する新しい逆レンダリングフレームワークである。
筆者らのフレームワークでは,まずGバッファを描画し,シーンの詳細な形状と材料特性を捉える。
Gバッファと以前のレンダリング結果により、ライトウェイトパストレースにより間接照明を計算することができる。
論文 参考訳(メタデータ) (2024-10-03T15:58:18Z) - Controllable Shadow Generation Using Pixel Height Maps [58.59256060452418]
物理ベースのシャドウレンダリング法は3次元のジオメトリーを必要とするが、必ずしも利用できない。
深層学習に基づく影合成法は、光情報から物体の影へのマッピングを、影の幾何学を明示的にモデル化することなく学習する。
オブジェクト,グラウンド,カメラのポーズ間の相関を符号化する新しい幾何学的表現であるピクセルハイを導入する。
論文 参考訳(メタデータ) (2022-07-12T08:29:51Z) - Geometry-aware Single-image Full-body Human Relighting [37.381122678376805]
単一イメージの人間のリライティングは、入力画像をアルベド、形状、照明に分解することで、新たな照明条件下でターゲットの人間をリライティングすることを目的としている。
それまでの方法は、アルベドと照明の絡み合いと、硬い影の欠如に悩まされていた。
我々のフレームワークは、難易度の高い照明条件下で、キャストシャドウのような光現実性の高い高周波影を生成することができる。
論文 参考訳(メタデータ) (2022-07-11T10:21:02Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。