論文の概要: Physics-Grounded Shadow Generation from Monocular 3D Geometry Priors and Approximate Light Direction
- arxiv url: http://arxiv.org/abs/2512.06174v1
- Date: Fri, 05 Dec 2025 21:52:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.22016
- Title: Physics-Grounded Shadow Generation from Monocular 3D Geometry Priors and Approximate Light Direction
- Title(参考訳): 単分子3次元形状による物理領域シャドウ生成と近似光方向
- Authors: Shilin Hu, Jingyi Xu, Akshat Dave, Dimitris Samaras, Hieu Le,
- Abstract要約: 影の形成の物理学において、オクルーダーは、それ以外は表面に到達するであろう光源から放たれるいくつかの光線を遮蔽し、オクルーダーのシルエットに続く影を形成する。
そこで本研究では,物理モデル(幾何学と照明)を深層学習に基づく影生成に組み込む新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 48.727438709248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Shadow generation aims to produce photorealistic shadows that are visually consistent with object geometry and scene illumination. In the physics of shadow formation, the occluder blocks some light rays casting from the light source that would otherwise arrive at the surface, creating a shadow that follows the silhouette of the occluder. However, such explicit physical modeling has rarely been used in deep-learning-based shadow generation. In this paper, we propose a novel framework that embeds explicit physical modeling - geometry and illumination - into deep-learning-based shadow generation. First, given a monocular RGB image, we obtain approximate 3D geometry in the form of dense point maps and predict a single dominant light direction. These signals allow us to recover fairly accurate shadow location and shape based on the physics of shadow formation. We then integrate this physics-based initial estimate into a diffusion framework that refines the shadow into a realistic, high-fidelity appearance while ensuring consistency with scene geometry and illumination. Trained on DESOBAV2, our model produces shadows that are both visually realistic and physically coherent, outperforming existing approaches, especially in scenes with complex geometry or ambiguous lighting.
- Abstract(参考訳): 影生成は、オブジェクトの幾何学やシーン照明と視覚的に整合したフォトリアリスティックな影を作り出すことを目的としている。
影の形成の物理学において、オクルーダーは、それ以外は表面に到達するであろう光源から放たれるいくつかの光線を遮蔽し、オクルーダーのシルエットに続く影を形成する。
しかし、このような明示的な物理モデリングは、ディープラーニングベースの影生成にはほとんど使われていない。
本稿では, 物理モデル(幾何学と照明)を深層学習に基づく影生成に組み込む新しいフレームワークを提案する。
まず、単分子RGB画像から、高密度点写像の形で近似した3次元幾何を求め、1つの支配的な光方向を予測する。
これらの信号は、影の形成の物理に基づいて、かなり正確な影の位置と形状を復元することができる。
次に、この物理に基づく初期推定値を拡散フレームワークに統合し、シーン幾何学と照明との整合性を確保しつつ、影をリアルで高忠実な外観に洗練する。
DESOBAV2でトレーニングされた我々のモデルは、視覚的にリアルで物理的に一貫性のある影を生成し、特に複雑な幾何学や曖昧な照明のシーンにおいて、既存のアプローチよりも優れています。
関連論文リスト
- Physics-Grounded Attached Shadow Detection Using Approximate 3D Geometry and Light Direction [46.19532675330894]
付属影は、光が自己閉塞のため到達できない物体の表面に存在する。
シーン照明と幾何学との相互関係を考慮し,鋳造影と付着影を共同で検出する枠組みを提案する。
本システムは,両方の影を別々に予測する影検出モジュールと,検出した影から光方向を推定する光推定モジュールとから構成される。
論文 参考訳(メタデータ) (2025-12-05T22:01:27Z) - KPLM-STA: Physically-Accurate Shadow Synthesis for Human Relighting via Keypoint-Based Light Modeling [10.273365471847102]
キーポイント線形モデル(KPLM)とシャドートライアングルアルゴリズム(STA)に基づく新しい影生成フレームワークを提案する。
KPLMは9つのキーポイントと1つのバウンディングブロックを使って人体を明瞭に表現し、物理的にもっともらしい影の投影と関節のダイナミックシェーディングを可能にした。
STAはさらに、明示的な幾何学的定式化を通じて影角、長さ、空間位置を計算することにより、幾何学的精度を向上させる。
論文 参考訳(メタデータ) (2025-11-11T12:28:42Z) - Generalizable and Relightable Gaussian Splatting for Human Novel View Synthesis [49.67420486373202]
GRGSは、多彩な照明条件下での高忠実なヒューマン・ノベル・ビュー・シンセサイザーのための一般的な3Dガウスのフレームワークである。
我々は, 精密深度および表面の正常度を予測するために, 合成依存データに基づいて学習した照明対応幾何微細化(LGR)モジュールを提案する。
論文 参考訳(メタデータ) (2025-05-27T17:59:47Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Controllable Shadow Generation Using Pixel Height Maps [58.59256060452418]
物理ベースのシャドウレンダリング法は3次元のジオメトリーを必要とするが、必ずしも利用できない。
深層学習に基づく影合成法は、光情報から物体の影へのマッピングを、影の幾何学を明示的にモデル化することなく学習する。
オブジェクト,グラウンド,カメラのポーズ間の相関を符号化する新しい幾何学的表現であるピクセルハイを導入する。
論文 参考訳(メタデータ) (2022-07-12T08:29:51Z) - Shadows Shed Light on 3D Objects [23.14510850163136]
我々は、物体の3次元形状、ポーズ、光源の位置を推測できる微分可能な画像形成モデルを作成する。
我々のアプローチは、地上の暗黒マスクが未知の現実世界の画像に対して堅牢である。
論文 参考訳(メタデータ) (2022-06-17T19:58:11Z) - Towards Learning Neural Representations from Shadows [11.60149896896201]
本稿では,シーンに存在する影のみから,ニューラルシーンの表現を学習する手法を提案する。
我々のフレームワークは高度に一般化可能であり、既存の3D再構成技術と協調して動作する。
論文 参考訳(メタデータ) (2022-03-29T23:13:41Z) - Neural Reflectance for Shape Recovery with Shadow Handling [88.67603644930466]
本論文は,非ランベルト的かつ空間的に変化する表面材料を用いて,シーンの形状を復元することを目的とする。
本研究では, 未知の3次元形状と未知の面点の両方をパラメータ化するために, 座標に基づく深部反射率(多層パーセプトロン)を提案する。
このネットワークは、観測された光度差と表面上の影を利用して、表面形状と一般的な非ランベルト反射率の両方を回復することができる。
論文 参考訳(メタデータ) (2022-03-24T07:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。