論文の概要: Neural Relightable Participating Media Rendering
- arxiv url: http://arxiv.org/abs/2110.12993v1
- Date: Mon, 25 Oct 2021 14:36:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 15:47:23.822701
- Title: Neural Relightable Participating Media Rendering
- Title(参考訳): ニューラルリライタブル参加型メディアレンダリング
- Authors: Quan Zheng, Gurprit Singh, Hans-Peter Seidel
- Abstract要約: 我々は,グローバル照明の完全なシミュレーションにより,参加メディアのためのニューラル表現を学習する。
提案手法は,最先端手法と比較して,視覚的品質と数値的性能に優れる。
- 参考スコア(独自算出の注目度): 26.431106015677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning neural radiance fields of a scene has recently allowed realistic
novel view synthesis of the scene, but they are limited to synthesize images
under the original fixed lighting condition. Therefore, they are not flexible
for the eagerly desired tasks like relighting, scene editing and scene
composition. To tackle this problem, several recent methods propose to
disentangle reflectance and illumination from the radiance field. These methods
can cope with solid objects with opaque surfaces but participating media are
neglected. Also, they take into account only direct illumination or at most
one-bounce indirect illumination, thus suffer from energy loss due to ignoring
the high-order indirect illumination. We propose to learn neural
representations for participating media with a complete simulation of global
illumination. We estimate direct illumination via ray tracing and compute
indirect illumination with spherical harmonics. Our approach avoids computing
the lengthy indirect bounces and does not suffer from energy loss. Our
experiments on multiple scenes show that our approach achieves superior visual
quality and numerical performance compared to state-of-the-art methods, and it
can generalize to deal with solid objects with opaque surfaces as well.
- Abstract(参考訳): シーンのニューラルラディアンス場を学習することで、シーンのリアルな視点合成が可能になったが、元の固定照明条件下での合成に限られている。
したがって、リライト、シーン編集、シーン構成など、熱心に望まれるタスクには柔軟性がない。
この問題に対処するため, 放射場から反射率と照明を分離する手法が提案されている。
これらの方法は不透明な表面を持つ固体に対処できるが、媒体は無視される。
また、直接照明または最大1バウンドの間接照明のみを考慮に入れ、高次間接照明を無視してエネルギー損失を被る。
我々は,グローバル照明の完全なシミュレーションにより,参加メディアのニューラル表現を学ぶことを提案する。
我々は、レイトレーシングによる直接照明と球面調和による間接照明を推定する。
我々のアプローチは、長い間接バウンドの計算を避け、エネルギー損失に悩まされない。
複数の場面で行った実験では、最先端の手法に比べて優れた視覚品質と数値性能を達成でき、不透明な表面を持つ固体の処理も一般化できることを示した。
関連論文リスト
- SIRe-IR: Inverse Rendering for BRDF Reconstruction with Shadow and
Illumination Removal in High-Illuminance Scenes [51.50157919750782]
本稿では,環境マップ,アルベド,粗さにシーンを分解する暗黙のニューラルレンダリング逆アプローチSIRe-IRを提案する。
間接放射場、通常光、可視光、および直接光を同時に正確にモデル化することにより、影と間接光の両方を除去することができる。
強い照明の存在下でも,影の干渉を伴わずに高品質なアルベドと粗さを回収する。
論文 参考訳(メタデータ) (2023-10-19T10:44:23Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z) - Modeling Indirect Illumination for Inverse Rendering [31.734819333921642]
本稿では,空間的に変化する間接照明を効率よく回収するための新しい手法を提案する。
重要な洞察は、間接照明は入力画像から学習した神経放射場から便利に導出できるということである。
合成データと実データの両方の実験は、従来の研究と比較して、我々のアプローチの優れた性能を示している。
論文 参考訳(メタデータ) (2022-04-14T09:10:55Z) - Neural Point Light Fields [80.98651520818785]
本稿では,スパース点雲上に存在する光の場を暗黙的に表現するニューラルポイント光場について紹介する。
これらの点光場は、光線方向と局所点特徴近傍の関数として機能し、光場条件付きトレーニング画像を高密度の被写体とパララックスを介さずに補間することができる。
論文 参考訳(メタデータ) (2021-12-02T18:20:10Z) - Self-supervised Outdoor Scene Relighting [92.20785788740407]
本稿では, 自己指導型リライティング手法を提案する。
当社のアプローチは,ユーザの監督なしにインターネットから収集した画像のコーパスのみに基づいて訓練されている。
以上の結果から,写実的かつ物理的に妥当な結果を生成できる技術が,見えない場面に一般化できることが示唆された。
論文 参考訳(メタデータ) (2021-07-07T09:46:19Z) - Object-Centric Neural Scene Rendering [19.687759175741824]
本稿では,物体の撮影画像から写実的シーンを構成する手法を提案する。
私たちの研究は、暗黙的にシーンの体積密度と方向発光放射をモデル化するニューラル・ラジアンス・フィールド(NeRF)に基づいています。
我々は、オブジェクトごとの光輸送を暗黙的に、照明とビューに依存したニューラルネットワークを使ってモデル化する、オブジェクト指向神経散乱関数(OSFs)を学習する。
論文 参考訳(メタデータ) (2020-12-15T18:55:02Z) - NeRD: Neural Reflectance Decomposition from Image Collections [50.945357655498185]
NeRDは、神経放射場に物理ベースのレンダリングを導入することで、この分解を実現する方法である。
非ランベルト反射率、複素幾何、未知の照明さえも高品質のモデルに分解できる。
論文 参考訳(メタデータ) (2020-12-07T18:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。