論文の概要: Neural Ray-Tracing: Learning Surfaces and Reflectance for Relighting and
View Synthesis
- arxiv url: http://arxiv.org/abs/2104.13562v1
- Date: Wed, 28 Apr 2021 03:47:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 19:43:20.666012
- Title: Neural Ray-Tracing: Learning Surfaces and Reflectance for Relighting and
View Synthesis
- Title(参考訳): ニューラルレイトレーシング:学習面とリライトとビュー合成のための反射率
- Authors: Julian Knodt, Seung-Hwan Baek, Felix Heide
- Abstract要約: シーン間の光輸送を明示的にモデル化し、従来の統合スキームとレンダリング方程式に頼ってシーンを再構成します。
従来のレンダリング法で確立された表面表現による分解輸送を学習することにより、自然に形状、反射性、照明、シーン構成の編集が容易になる。
提案手法は,NERVデータセットのサブセットの合成およびキャプチャビューから得られたシーン編集,リライティング,リフレクタンス推定に有効である。
- 参考スコア(独自算出の注目度): 28.356700318603565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent neural rendering methods have demonstrated accurate view interpolation
by predicting volumetric density and color with a neural network. Although such
volumetric representations can be supervised on static and dynamic scenes,
existing methods implicitly bake the complete scene light transport into a
single neural network for a given scene, including surface modeling,
bidirectional scattering distribution functions, and indirect lighting effects.
In contrast to traditional rendering pipelines, this prohibits changing surface
reflectance, illumination, or composing other objects in the scene.
In this work, we explicitly model the light transport between scene surfaces
and we rely on traditional integration schemes and the rendering equation to
reconstruct a scene. The proposed method allows BSDF recovery with unknown
light conditions and classic light transports such as pathtracing. By learning
decomposed transport with surface representations established in conventional
rendering methods, the method naturally facilitates editing shape, reflectance,
lighting and scene composition. The method outperforms NeRV for relighting
under known lighting conditions, and produces realistic reconstructions for
relit and edited scenes. We validate the proposed approach for scene editing,
relighting and reflectance estimation learned from synthetic and captured views
on a subset of NeRV's datasets.
- Abstract(参考訳): 最近のニューラルレンダリング手法では、ニューラルネットワークを用いてボリューム密度と色を予測することにより、正確な視野補間が示されている。
このようなボリューム表現は静的および動的シーンで管理できるが、既存の方法では、表面モデリング、双方向散乱分布関数、間接照明効果を含む、特定のシーンのための単一のニューラルネットワークへの完全なシーン光輸送を暗黙的に焼く。
従来のレンダリングパイプラインとは対照的に、シーン内の他のオブジェクトの表面反射、照明、構成の変更を禁止している。
本研究では,シーン表面間の光伝達を明示的にモデル化し,従来の統合スキームと,シーンを再現するためのレンダリング式に依存する。
提案手法は、未知の光条件とパストラシングのような古典的な光輸送でBSDFの回復を可能にする。
従来のレンダリング法で確立された表面表現による分解輸送を学習することにより、自然に形状、反射性、照明、シーン構成の編集が容易になる。
この方法は、既知の照明条件下でのライトアップのためのnervよりも優れており、リライトや編集シーンのリアルな再構成を生成する。
提案手法は,NERVデータセットのサブセットの合成およびキャプチャビューから得られたシーン編集,リライティング,反射率推定に有効である。
関連論文リスト
- DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Neural Relighting with Subsurface Scattering by Learning the Radiance
Transfer Gradient [73.52585139592398]
本稿では,ボリュームレンダリングによる放射移動場学習のための新しいフレームワークを提案する。
我々は、我々のコードと、地下散乱効果を持つ新しい光ステージのオブジェクトデータセットを公開します。
論文 参考訳(メタデータ) (2023-06-15T17:56:04Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - NeILF++: Inter-Reflectable Light Fields for Geometry and Material
Estimation [36.09503501647977]
我々は静的なシーンの照明を1つのニューラルインシデント光場(NeILF)と1つのニューラルラディアンス場(NeRF)として定式化する。
提案手法は, 幾何再構成の品質, 材料推定精度, 新規なビューレンダリングの忠実度の観点から, 最先端の結果が得られる。
論文 参考訳(メタデータ) (2023-03-30T04:59:48Z) - ENVIDR: Implicit Differentiable Renderer with Neural Environment
Lighting [9.145875902703345]
ENVIDRは、高精細な反射を伴う表面の高精細なレンダリングと再構成のためのレンダリングとモデリングのためのフレームワークである。
まず、表面光と環境光の相互作用を学習するために、分解レンダリングを用いた新しいニューラルネットワークを提案する。
次に、この学習されたニューラルサーフェスを利用して一般的なシーンを表現するSDFベースのニューラルサーフェスモデルを提案する。
論文 参考訳(メタデータ) (2023-03-23T04:12:07Z) - Physics-based Indirect Illumination for Inverse Rendering [70.27534648770057]
本稿では,複数視点のRGB画像からシーンの照明,幾何学,材料を学習する物理ベースの逆レンダリング手法を提案する。
副産物として、我々の物理ベースの逆レンダリングモデルは、フレキシブルでリアルな素材編集やリライティングを容易にする。
論文 参考訳(メタデータ) (2022-12-09T07:33:49Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - NeILF: Neural Incident Light Field for Physically-based Material
Estimation [31.230609753253713]
本稿では,多視点画像と再構成幾何から物質と照明を推定するための微分可能なレンダリングフレームワークを提案する。
本フレームワークでは,シーン照明をニューラルインシデント光電場(NeILF)と表現し,多層パーセプトロンでモデル化した表面BRDFとして材料特性を示す。
論文 参考訳(メタデータ) (2022-03-14T15:23:04Z) - Object-Centric Neural Scene Rendering [19.687759175741824]
本稿では,物体の撮影画像から写実的シーンを構成する手法を提案する。
私たちの研究は、暗黙的にシーンの体積密度と方向発光放射をモデル化するニューラル・ラジアンス・フィールド(NeRF)に基づいています。
我々は、オブジェクトごとの光輸送を暗黙的に、照明とビューに依存したニューラルネットワークを使ってモデル化する、オブジェクト指向神経散乱関数(OSFs)を学習する。
論文 参考訳(メタデータ) (2020-12-15T18:55:02Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。