論文の概要: Relighting Neural Radiance Fields with Shadow and Highlight Hints
- arxiv url: http://arxiv.org/abs/2308.13404v1
- Date: Fri, 25 Aug 2023 14:27:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 13:42:48.660795
- Title: Relighting Neural Radiance Fields with Shadow and Highlight Hints
- Title(参考訳): 影とハイライトヒントによる神経放射野の再生
- Authors: Chong Zeng and Guojun Chen and Yue Dong and Pieter Peers and Hongzhi
Wu and Xin Tong
- Abstract要約: 本稿では,非構造写真の小さな集合から自由視点を照らす新しい暗黙的放射率表現について述べる。
この形状を多層パーセプトロンでモデル化した符号付き距離関数として表現する。
我々は,多種多様な形状,材料特性,大域的な照明光輸送を示す合成シーンと実シーンにおける我々の神経暗黙表現を実証し,検証した。
- 参考スコア(独自算出の注目度): 17.954887488427865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel neural implicit radiance representation for free
viewpoint relighting from a small set of unstructured photographs of an object
lit by a moving point light source different from the view position. We express
the shape as a signed distance function modeled by a multi layer perceptron. In
contrast to prior relightable implicit neural representations, we do not
disentangle the different reflectance components, but model both the local and
global reflectance at each point by a second multi layer perceptron that, in
addition, to density features, the current position, the normal (from the
signed distace function), view direction, and light position, also takes shadow
and highlight hints to aid the network in modeling the corresponding high
frequency light transport effects. These hints are provided as a suggestion,
and we leave it up to the network to decide how to incorporate these in the
final relit result. We demonstrate and validate our neural implicit
representation on synthetic and real scenes exhibiting a wide variety of
shapes, material properties, and global illumination light transport.
- Abstract(参考訳): 本稿では,移動点光源によって照らされた物体の小さな非構造化写真から自由視点を照らし出すための,新しい神経的暗黙的照度表現を提案する。
この形状を多層パーセプトロンでモデル化した符号付き距離関数として表現する。
先行した可視性暗黙の神経表現とは対照的に、異なる反射率成分を分離するのではなく、密度特徴に加えて、現在の位置、(符号付きディザス関数からの)正常位置、視野方向、光位置が、対応する高周波光輸送効果のモデル化においてネットワークを補助するために影とハイライトのヒントを取るように、各点の局所的反射率と大域的反射率の両方を第2多層パーセプトロンでモデル化する。
これらのヒントは提案として提供され、最終的なリライト結果にそれらを組み込む方法を決定するために、ネットワークに委ねます。
我々は,多種多様な形状,材料特性,大域的な照明光輸送を示す合成シーンと実シーンにおける我々の神経暗黙表現を実証し,検証した。
関連論文リスト
- NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - NePF: Neural Photon Field for Single-Stage Inverse Rendering [6.977356702921476]
多視点画像の逆レンダリングに対処するために,新しい単一ステージフレームワークNePF(Neural Photon Field)を提案する。
NePFは、神経暗黙表面の重み関数の背後にある物理的意味を完全に活用することで、この統一を実現する。
我々は本手法を実データと合成データの両方で評価する。
論文 参考訳(メタデータ) (2023-11-20T06:15:46Z) - Neural Point Catacaustics for Novel-View Synthesis of Reflections [3.5348690973777]
曲面反射板を用いたシーンの新規なビュー合成を可能にするニューラルポイント音響計算のための新しいポイントベース表現を提案する。
ソースコードやその他の補足資料をhttps://repo-sam.inria.fr/ fungraph/neural_catacaustics/で提供します。
論文 参考訳(メタデータ) (2023-01-03T13:28:10Z) - Physics-based Indirect Illumination for Inverse Rendering [70.27534648770057]
本稿では,複数視点のRGB画像からシーンの照明,幾何学,材料を学習する物理ベースの逆レンダリング手法を提案する。
副産物として、我々の物理ベースの逆レンダリングモデルは、フレキシブルでリアルな素材編集やリライティングを容易にする。
論文 参考訳(メタデータ) (2022-12-09T07:33:49Z) - Neural Point Light Fields [80.98651520818785]
本稿では,スパース点雲上に存在する光の場を暗黙的に表現するニューラルポイント光場について紹介する。
これらの点光場は、光線方向と局所点特徴近傍の関数として機能し、光場条件付きトレーニング画像を高密度の被写体とパララックスを介さずに補間することができる。
論文 参考訳(メタデータ) (2021-12-02T18:20:10Z) - Learning Neural Transmittance for Efficient Rendering of Reflectance
Fields [43.24427791156121]
本稿では,ニューラルリフレクタンスフィールドのレンダリングを高速化する事前計算型ニューラルトランスミッション関数に基づく新しい手法を提案する。
実シーンと合成シーンの結果は、最小の精度で環境マップ下でのレンダリングにおいて、ほぼ2桁のスピードアップを示す。
論文 参考訳(メタデータ) (2021-10-25T21:12:25Z) - Light Field Networks: Neural Scene Representations with
Single-Evaluation Rendering [60.02806355570514]
2次元観察から3Dシーンの表現を推定することは、コンピュータグラフィックス、コンピュータビジョン、人工知能の基本的な問題である。
そこで我々は,360度4次元光場における基礎となる3次元シーンの形状と外観の両面を表現した新しいニューラルシーン表現,光場ネットワーク(LFN)を提案する。
LFNからレイをレンダリングするには*single*ネットワークの評価しか必要としない。
論文 参考訳(メタデータ) (2021-06-04T17:54:49Z) - STaR: Self-supervised Tracking and Reconstruction of Rigid Objects in
Motion with Neural Rendering [9.600908665766465]
本稿では,マルチビューRGB動画のリジッドモーションによる動的シーンの自己監視追跡と再構成を,手動アノテーションなしで行う新しい手法であるSTaRについて述べる。
本手法は,空間軸と時間軸の両方で新規性を測定するフォトリアリスティック・ノベルビューを描画できることを示した。
論文 参考訳(メタデータ) (2020-12-22T23:45:28Z) - Light Stage Super-Resolution: Continuous High-Frequency Relighting [58.09243542908402]
光ステージから採取した人間の顔の「超解像」を学習ベースで解析する手法を提案する。
本手法では,ステージ内の隣接する照明に対応する撮像画像を集約し,ニューラルネットワークを用いて顔の描画を合成する。
我々の学習モデルは、リアルな影と特異なハイライトを示す任意の光方向のレンダリングを生成することができる。
論文 参考訳(メタデータ) (2020-10-17T23:40:43Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。