論文の概要: AdaNeRF: Adaptive Sampling for Real-time Rendering of Neural Radiance
Fields
- arxiv url: http://arxiv.org/abs/2207.10312v1
- Date: Thu, 21 Jul 2022 05:59:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 13:38:40.869315
- Title: AdaNeRF: Adaptive Sampling for Real-time Rendering of Neural Radiance
Fields
- Title(参考訳): adanerf: 神経放射野のリアルタイムレンダリングのための適応サンプリング
- Authors: Andreas Kurz, Thomas Neff, Zhaoyang Lv, Michael Zollh\"ofer, Markus
Steinberger
- Abstract要約: 新たなビュー合成は、スパース観測から直接神経放射場を学習することで、近年革新されている。
この新たなパラダイムによる画像のレンダリングは、ボリュームレンダリング方程式の正確な4分の1は、各光線に対して大量のサンプルを必要とするため、遅い。
本稿では,必要なサンプル点数を最大限に削減する方法を学習し,方向性を示す新しいデュアルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 8.214695794896127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Novel view synthesis has recently been revolutionized by learning neural
radiance fields directly from sparse observations. However, rendering images
with this new paradigm is slow due to the fact that an accurate quadrature of
the volume rendering equation requires a large number of samples for each ray.
Previous work has mainly focused on speeding up the network evaluations that
are associated with each sample point, e.g., via caching of radiance values
into explicit spatial data structures, but this comes at the expense of model
compactness. In this paper, we propose a novel dual-network architecture that
takes an orthogonal direction by learning how to best reduce the number of
required sample points. To this end, we split our network into a sampling and
shading network that are jointly trained. Our training scheme employs fixed
sample positions along each ray, and incrementally introduces sparsity
throughout training to achieve high quality even at low sample counts. After
fine-tuning with the target number of samples, the resulting compact neural
representation can be rendered in real-time. Our experiments demonstrate that
our approach outperforms concurrent compact neural representations in terms of
quality and frame rate and performs on par with highly efficient hybrid
representations. Code and supplementary material is available at
https://thomasneff.github.io/adanerf.
- Abstract(参考訳): ニューラル・ビュー合成は最近、スパース観測から直接神経放射場を学習することで革新されている。
しかし、ボリュームレンダリング方程式の正確な二次性が各光線に対して大量のサンプルを必要とするため、この新しいパラダイムによる画像のレンダリングは遅くなる。
従来の研究は主に、例えば、空間的データ構造にラディアンス値をキャッシュすることで、サンプル点ごとに関連付けられたネットワーク評価の高速化に重点を置いてきたが、これはモデルコンパクト性を犠牲にしている。
本稿では,必要なサンプル点数を最適に削減する方法を学習することにより,直交方向を指向する新しいデュアルネットワークアーキテクチャを提案する。
この目的のために、我々はネットワークをサンプリングおよびシェーディングネットワークに分割し、共同でトレーニングを行った。
実験では,各光線に固定的なサンプル位置を配置し,低サンプル数でも高い品質を達成するためにトレーニングを通してスパーシティを漸増的に導入する。
対象サンプル数を微調整した後、結果として得られるコンパクトなニューラルネットワーク表現をリアルタイムにレンダリングすることができる。
実験により,本手法は,高効率なハイブリッド表現に匹敵する品質とフレームレートで,並列的なコンパクトなニューラル表現よりも優れることを示した。
コードと補足資料はhttps://thomasneff.github.io/adanerf.comで入手できる。
関連論文リスト
- Fast Non-Rigid Radiance Fields from Monocularized Data [68.88324861133162]
本稿では,非剛性なシーンの360度新鮮ビュー合成のための新しい手法を提案する。
提案手法のコアとなるのは, 空間情報と時間情報の処理を分離した効率的な変形モジュールである。
我々は,全半球からランダムにサンプリングされた時間フレーム当たりの単一分子ビューからの効率的な再構成を可能にする,確立された合成D-NeRFベンチマークに対する提案手法の評価を行った。
論文 参考訳(メタデータ) (2022-12-02T18:51:10Z) - DDNeRF: Depth Distribution Neural Radiance Fields [12.283891012446647]
DDNeRF(Deep Distribution Neural Radiance Field)は、トレーニング中の放射線のサンプリング効率を大幅に向上させる新しい手法である。
粗いモデルを用いて、入力体積の透過性の内部分布を予測し、体積の総密度を推定する。
このより詳細な分布は、ファインモデルのサンプリング手順を導出する。
論文 参考訳(メタデータ) (2022-03-30T19:21:07Z) - Neural Adaptive SCEne Tracing [24.781844909539686]
NAScenTは,ハイブリッド・明示的ニューラル表現を直接訓練した最初のニューラルレンダリング手法である。
NAScenTは、UAVが捕獲した屋外環境のような、大きくて人口の少ないボリュームを含む、困難なシーンを再構築することができる。
論文 参考訳(メタデータ) (2022-02-28T10:27:23Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z) - NeuSample: Neural Sample Field for Efficient View Synthesis [129.10351459066501]
本稿では,ニューラルサンプル場を命名する軽量モジュールを提案する。
提案したサンプルフィールドは、線をサンプル分布にマッピングし、点座標に変換し、ボリュームレンダリングのために放射場に供給することができる。
我々はNeuSampleが高速な推論速度を保ちながら、NeRFよりも優れたレンダリング品質を実現することを示す。
論文 参考訳(メタデータ) (2021-11-30T16:43:49Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z) - Neural BRDF Representation and Importance Sampling [79.84316447473873]
本稿では,リフレクタンスBRDFデータのコンパクトニューラルネットワークに基づく表現について述べる。
BRDFを軽量ネットワークとしてエンコードし、適応角サンプリングによるトレーニングスキームを提案する。
複数の実世界のデータセットから等方性および異方性BRDFの符号化結果を評価する。
論文 参考訳(メタデータ) (2021-02-11T12:00:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。