論文の概要: Efficient Ray Sampling for Radiance Fields Reconstruction
- arxiv url: http://arxiv.org/abs/2308.15547v1
- Date: Tue, 29 Aug 2023 18:11:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 15:53:29.434213
- Title: Efficient Ray Sampling for Radiance Fields Reconstruction
- Title(参考訳): 放射場再構成のための効率的なレイサンプリング
- Authors: Shilei Sun, Ming Liu, Zhongyi Fan, Yuxue Liu, Chengwei Lv, Liquan
Dong, Lingqin Kong (Beijing Institute of Technology, China)
- Abstract要約: レイサンプリング戦略は ネットワーク収束に大きな影響を与えます
ニューラルレイディアンス場に対する新しいレイサンプリング手法を提案する。
提案手法は,公開ベンチマークデータセットにおける最先端技術よりも優れていた。
- 参考スコア(独自算出の注目度): 4.004168836949491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accelerating neural radiance fields training is of substantial practical
value, as the ray sampling strategy profoundly impacts network convergence.
More efficient ray sampling can thus directly enhance existing NeRF models'
training efficiency. We therefore propose a novel ray sampling approach for
neural radiance fields that improves training efficiency while retaining
photorealistic rendering results. First, we analyze the relationship between
the pixel loss distribution of sampled rays and rendering quality. This reveals
redundancy in the original NeRF's uniform ray sampling. Guided by this finding,
we develop a sampling method leveraging pixel regions and depth boundaries. Our
main idea is to sample fewer rays in training views, yet with each ray more
informative for scene fitting. Sampling probability increases in pixel areas
exhibiting significant color and depth variation, greatly reducing wasteful
rays from other regions without sacrificing precision. Through this method, not
only can the convergence of the network be accelerated, but the spatial
geometry of a scene can also be perceived more accurately. Rendering outputs
are enhanced, especially for texture-complex regions. Experiments demonstrate
that our method significantly outperforms state-of-the-art techniques on public
benchmark datasets.
- Abstract(参考訳): レイサンプリング戦略がネットワーク収束に大きな影響を及ぼすため、加速神経放射場訓練は実用的価値が高い。
これにより、より効率的なレイサンプリングは、既存のNeRFモデルのトレーニング効率を直接的に向上させることができる。
そこで我々は,フォトリアリスティックなレンダリング結果を維持しながら,トレーニング効率を向上させるニューラルレイディアンスフィールドのための新しいレイサンプリング手法を提案する。
まず,サンプル光線の画素損失分布とレンダリング品質の関係を解析した。
これは、オリジナルのnerfの均一な光線サンプリングにおける冗長性を示す。
そこで本研究では,画素領域と深さ境界を利用したサンプリング手法を開発した。
メインのアイデアは、トレーニングビューでより少ない光線をサンプリングすることですが、各光線がシーンフィッティングに役立ちます。
画素領域のサンプリング確率は, 色や深度に有意な変化を示し, 精度を犠牲にすることなく, 他領域からの無駄な光を著しく低減する。
この方法では、ネットワークの収束を加速できるだけでなく、シーンの空間幾何学をより正確に認識することができる。
レンダリング出力は特にテクスチャ複雑な領域で強化される。
実験により,提案手法が公開ベンチマークデータセットの最先端技術を大幅に上回ることを示した。
関連論文リスト
- ProNeRF: Learning Efficient Projection-Aware Ray Sampling for
Fine-Grained Implicit Neural Radiance Fields [27.008124938806944]
メモリフットプリント(NeRFに似ている)、スピード(HyperReelより速い)、品質(K-Planesより速い)の最適なトレードオフを提供するProNeRFを提案する。
我々のProNeRFは最先端の計測値であり、最も優れたサンプルベース手法であるHyperReelよりも15-23倍高速で、PSNRは0.65dB高く、PSNRは0.95dB高い。
論文 参考訳(メタデータ) (2023-12-13T13:37:32Z) - Adaptive Shells for Efficient Neural Radiance Field Rendering [92.18962730460842]
本稿では, 表面および表面のレンダリングを円滑に遷移させるニューラル放射率の定式化を提案する。
我々の手法は、非常に高い忠実度で効率的なレンダリングを可能にする。
また,抽出したエンベロープは,アニメーションやシミュレーションなどの下流アプリケーションを可能にすることを示す。
論文 参考訳(メタデータ) (2023-11-16T18:58:55Z) - Differentiable Rendering with Reparameterized Volume Sampling [2.717399369766309]
ビュー合成において、ニューラルネットワークは、シーン画像のスパースセットに基づいて、基礎となる密度と放射場を近似する。
このレンダリングアルゴリズムは、完全に微分可能であり、フィールドの勾配に基づく最適化を容易にする。
逆変換サンプリングに基づく単純なエンドツーエンドの微分可能サンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-21T19:56:50Z) - AdaNeRF: Adaptive Sampling for Real-time Rendering of Neural Radiance
Fields [8.214695794896127]
新たなビュー合成は、スパース観測から直接神経放射場を学習することで、近年革新されている。
この新たなパラダイムによる画像のレンダリングは、ボリュームレンダリング方程式の正確な4分の1は、各光線に対して大量のサンプルを必要とするため、遅い。
本稿では,必要なサンプル点数を最大限に削減する方法を学習し,方向性を示す新しいデュアルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-07-21T05:59:13Z) - R2L: Distilling Neural Radiance Field to Neural Light Field for
Efficient Novel View Synthesis [76.07010495581535]
一つのピクセルをレンダリングするには、数百回もNeural Radiance Fieldネットワークに問い合わせる必要がある。
NeLFは、新しい視点において、NeRFに対してより直接的な表現を提示する。
ディープNeLFネットワークをうまく学習する鍵は、十分なデータを持つことである。
論文 参考訳(メタデータ) (2022-03-31T17:57:05Z) - DDNeRF: Depth Distribution Neural Radiance Fields [12.283891012446647]
DDNeRF(Deep Distribution Neural Radiance Field)は、トレーニング中の放射線のサンプリング効率を大幅に向上させる新しい手法である。
粗いモデルを用いて、入力体積の透過性の内部分布を予測し、体積の総密度を推定する。
このより詳細な分布は、ファインモデルのサンプリング手順を導出する。
論文 参考訳(メタデータ) (2022-03-30T19:21:07Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z) - Photon-Driven Neural Path Guiding [102.12596782286607]
本稿では,スパース標本群から誘導される経路の高品質なサンプリング分布を再構築するニューラルパス誘導手法を提案する。
我々は、光源から追跡した光子をサンプリング密度再構成の入力として利用し、強力なグローバル照明の挑戦シーンに非常に効果的である。
提案手法は,従来の最先端の経路案内手法よりも,テストシーンのレンダリング結果が大幅に向上する。
論文 参考訳(メタデータ) (2020-10-05T04:54:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。