論文の概要: ShadowNeuS: Neural SDF Reconstruction by Shadow Ray Supervision
- arxiv url: http://arxiv.org/abs/2211.14086v1
- Date: Fri, 25 Nov 2022 13:14:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 17:12:08.439494
- Title: ShadowNeuS: Neural SDF Reconstruction by Shadow Ray Supervision
- Title(参考訳): ShadowNeuS:Shadow Ray Supervisionによる神経SDF再構成
- Authors: Jingwang Ling, Zhibo Wang, Feng Xu
- Abstract要約: NeRFは、新しいビュー合成のタスクのためのニューラルシーン表現を再構成する。
影線を監督することにより、単視点の純粋な影やRGB画像からシーンのニューラルなSDFを再構築することに成功した。
- 参考スコア(独自算出の注目度): 19.441669467054158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: By supervising camera rays between a scene and multi-view image planes, NeRF
reconstructs a neural scene representation for the task of novel view
synthesis. On the other hand, shadow rays between the light source and the
scene have yet to be considered. Therefore, we propose a novel shadow ray
supervision scheme that optimizes both the samples along the ray and the ray
location. By supervising shadow rays, we successfully reconstruct a neural SDF
of the scene from single-view pure shadow or RGB images under multiple lighting
conditions. Given single-view binary shadows, we train a neural network to
reconstruct a complete scene not limited by the camera's line of sight. By
further modeling the correlation between the image colors and the shadow rays,
our technique can also be effectively extended to RGB inputs. We compare our
method with previous works on challenging tasks of shape reconstruction from
single-view binary shadow or RGB images and observe significant improvements.
The code and data will be released.
- Abstract(参考訳): シーンとマルチビュー画像平面間のカメラ線を監視することにより、NeRFは新規なビュー合成作業のためのニューラルシーン表現を再構成する。
一方、光源とシーンの間の影の光は未だ検討されていない。
そこで本研究では,光線沿線試料と光線位置の両方を最適化する新しい影線監視手法を提案する。
影線を監督することにより、複数の照明条件下で一視点の純影やRGB画像からシーンの神経SDFを再構成することに成功した。
シングルビューのバイナリシャドウが与えられると、カメラの視線に制限されない完全なシーンを再構築するためにニューラルネットワークをトレーニングします。
さらに画像色と影線の相関関係をモデル化することにより,RGB入力に効果的に拡張することができる。
本手法は, 単視点バイナリシャドウやRGB画像からの形状復元の課題について, 従来の手法と比較し, 大幅な改善が見られた。
コードとデータはリリースされます。
関連論文リスト
- Gaussian Shadow Casting for Neural Characters [20.78790953284832]
本稿では,サンプリングを単純な解析式に置き換えたガウス密度プロキシを用いた新しい影モデルを提案する。
動的運動をサポートし、シャドウ計算用に調整されているため、近縁なガウススプラッティングで必要とされるアフィン射影近似やソートを避けることができる。
我々は、直射日光と硬い影を持つ屋外の挑戦シーンにおいて、アルベド、シェーディング、シャドウの分離性を向上し、改良された再構築を実演した。
論文 参考訳(メタデータ) (2024-01-11T18:50:31Z) - Relit-NeuLF: Efficient Relighting and Novel View Synthesis via Neural 4D
Light Field [69.90548694719683]
本稿ではRelit-NeuLFと呼ばれる分析合成手法を提案する。
まず、4次元座標系で各光線をパラメータ化し、効率的な学習と推論を可能にする。
総合的な実験により,提案手法は合成データと実世界の顔データの両方において効率的かつ効果的であることが実証された。
論文 参考訳(メタデータ) (2023-10-23T07:29:51Z) - S$^3$-NeRF: Neural Reflectance Field from Shading and Shadow under a
Single Viewpoint [22.42916940712357]
本手法は,シーンの3次元形状とBRDFを表現するために,ニューラルリフレクタンス場を学習する。
本手法は,一視点画像からシーンの可視部分と可視部分の両方を含む3次元形状を復元することができる。
新規ビュー合成やリライトといったアプリケーションをサポートする。
論文 参考訳(メタデータ) (2022-10-17T11:01:52Z) - Towards Learning Neural Representations from Shadows [11.60149896896201]
本稿では,シーンに存在する影のみから,ニューラルシーンの表現を学習する手法を提案する。
我々のフレームワークは高度に一般化可能であり、既存の3D再構成技術と協調して動作する。
論文 参考訳(メタデータ) (2022-03-29T23:13:41Z) - Neural-PIL: Neural Pre-Integrated Lighting for Reflectance Decomposition [50.94535765549819]
シーンをその形状、反射率、照明に分解することは、コンピュータビジョンとグラフィックスの基本的な問題である。
形状, BRDF, 画像ごとの照明を推定できる新しい反射率分解ネットワークを提案する。
我々の分解により、BRDFと光の推定がかなり良くなり、より正確なビュー合成とリライトが可能になります。
論文 参考訳(メタデータ) (2021-10-27T12:17:47Z) - R2D: Learning Shadow Removal to Enhance Fine-Context Shadow Detection [64.10636296274168]
現在のシャドウ検出方法は、小さく、不明瞭で、ぼやけたエッジを持つシャドウ領域を検出する際には、性能が良くない。
本稿では,深層ニューラルネットワークを修復訓練(シャドウ除去)するRestore to Detect(R2D)という新しい手法を提案する。
提案手法は,近年の手法に比べて微妙なコンテキストの検出が可能でありながら,影検出性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-20T15:09:22Z) - Neural Rays for Occlusion-aware Image-based Rendering [108.34004858785896]
我々は,ニューラルレイ(NeuRay)と呼ばれるニューラル表現を,マルチビューイメージを入力として,新しいビュー合成(NVS)タスクのために提案する。
NeuRayは、微調整の少ない未確認シーンの高品質なノベルビューレンダリング画像を生成することができる。
論文 参考訳(メタデータ) (2021-07-28T15:09:40Z) - Light Field Networks: Neural Scene Representations with
Single-Evaluation Rendering [60.02806355570514]
2次元観察から3Dシーンの表現を推定することは、コンピュータグラフィックス、コンピュータビジョン、人工知能の基本的な問題である。
そこで我々は,360度4次元光場における基礎となる3次元シーンの形状と外観の両面を表現した新しいニューラルシーン表現,光場ネットワーク(LFN)を提案する。
LFNからレイをレンダリングするには*single*ネットワークの評価しか必要としない。
論文 参考訳(メタデータ) (2021-06-04T17:54:49Z) - TRANSPR: Transparency Ray-Accumulating Neural 3D Scene Point Renderer [6.320273914694594]
本稿では,半透明シーンをモデル化可能なニューラルポイントベースグラフィックス手法を提案し,評価する。
半透明な点雲のシーンの新たなビューは、我々のアプローチでトレーニングした後に生成できることを示す。
論文 参考訳(メタデータ) (2020-09-06T21:19:18Z) - NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis [78.5281048849446]
本稿では,複雑なシーンの新たなビューを合成する手法を提案する。
提案アルゴリズムは,完全接続型(非畳み込み型)深層ネットワークを用いたシーンを表現する。
ボリュームレンダリングは自然に微分可能であるため、表現を最適化するのに必要な唯一の入力は、既知のカメラポーズを持つ画像の集合である。
論文 参考訳(メタデータ) (2020-03-19T17:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。