論文の概要: Physically Controllable Relighting of Photographs
- arxiv url: http://arxiv.org/abs/2508.05626v1
- Date: Thu, 07 Aug 2025 17:58:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.98605
- Title: Physically Controllable Relighting of Photographs
- Title(参考訳): 物理的に制御可能な写真のリライティング
- Authors: Chris Careaga, Yağız Aksoy,
- Abstract要約: 我々は、完全に制御可能で物理的に照明の編集を可能にする、Wild画像のリライトに対する自己教師型アプローチを提案する。
従来のレンダリングの物理的精度と、ニューラルレンダリングによって実現されたフォトリアリスティックな外観を組み合わせることで、これを実現する。
提案手法は,Blenderなどの一般的な3次元コンピュータグラフィックスツールで利用可能な光の物理的制御を,電球内でのリライト化に利用するための重要なステップである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a self-supervised approach to in-the-wild image relighting that enables fully controllable, physically based illumination editing. We achieve this by combining the physical accuracy of traditional rendering with the photorealistic appearance made possible by neural rendering. Our pipeline works by inferring a colored mesh representation of a given scene using monocular estimates of geometry and intrinsic components. This representation allows users to define their desired illumination configuration in 3D. The scene under the new lighting can then be rendered using a path-tracing engine. We send this approximate rendering of the scene through a feed-forward neural renderer to predict the final photorealistic relighting result. We develop a differentiable rendering process to reconstruct in-the-wild scene illumination, enabling self-supervised training of our neural renderer on raw image collections. Our method represents a significant step in bringing the explicit physical control over lights available in typical 3D computer graphics tools, such as Blender, to in-the-wild relighting.
- Abstract(参考訳): 我々は、完全に制御可能で物理的に照明の編集を可能にする、Wild画像のリライトに対する自己教師型アプローチを提案する。
従来のレンダリングの物理的精度と、ニューラルレンダリングによって実現されたフォトリアリスティックな外観を組み合わせることで、これを実現する。
我々のパイプラインは、幾何学と固有成分の単分子推定を用いて、所定のシーンの色付きメッシュ表現を推定することで機能する。
この表現により、ユーザーは希望する照明構成を3Dで定義できる。
新しい照明の下のシーンは、パストレーシングエンジンを使ってレンダリングすることができる。
我々は、この近似レンダリングをフィードフォワードニューラルレンダラーを通して送信し、最終的な光リアルリライト結果を予測する。
我々は,原画像コレクション上でのニューラルネットワークレンダラーの自己教師付きトレーニングを可能にするため,現場照明を再構築するための異なるレンダリングプロセスを開発した。
提案手法は,Blenderなどの一般的な3次元コンピュータグラフィックスツールで利用可能な光の物理的制御を,電球内でのリライト化に利用するための重要なステップである。
関連論文リスト
- EndoPBR: Material and Lighting Estimation for Photorealistic Surgical Simulations via Physically-based Rendering [1.03590082373586]
手術シーンにおける3次元視覚におけるラベル付きデータセットの欠如は、堅牢な3次元再構成アルゴリズムの開発を阻害する。
内視鏡画像と既知の幾何から物質と照明を推定するための微分可能なレンダリングフレームワークを提案する。
レンダリング方程式で色予測を基底にすることにより、任意のカメラポーズでフォトリアリスティックな画像を生成することができる。
論文 参考訳(メタデータ) (2025-02-28T02:50:59Z) - Photorealistic Object Insertion with Diffusion-Guided Inverse Rendering [56.68286440268329]
現実世界のシーンの画像に仮想オブジェクトを正しく挿入するには、シーンの照明、幾何学、材料を深く理解する必要がある。
本稿では,物理ベースの逆レンダリングプロセスへのガイダンスとして,パーソナライズされた大規模拡散モデルを提案する。
本手法は,シーンライティングとトーンマッピングのパラメータを復元し,任意の仮想オブジェクトの光リアルな構成を室内や屋外のシーンの単一フレームやビデオで再現する。
論文 参考訳(メタデータ) (2024-08-19T05:15:45Z) - FLARE: Fast Learning of Animatable and Relightable Mesh Avatars [64.48254296523977]
私たちのゴールは、幾何学的に正確で、リアルで、楽しい、現在のレンダリングシステムと互換性のあるビデオから、パーソナライズ可能な3Dアバターを効率的に学習することです。
単眼ビデオからアニマタブルアバターとリライトブルアバターの作成を可能にする技術であるFLAREを紹介する。
論文 参考訳(メタデータ) (2023-10-26T16:13:00Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z) - Learning Indoor Inverse Rendering with 3D Spatially-Varying Lighting [149.1673041605155]
1枚の画像からアルベド, 正常, 深さ, 3次元の空間的変化を共同で推定する問題に対処する。
既存のほとんどの方法は、シーンの3D特性を無視して、画像から画像への変換としてタスクを定式化する。
本研究では3次元空間変動照明を定式化する統合学習ベースの逆フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T15:29:03Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。