論文の概要: NeRF Revisited: Fixing Quadrature Instability in Volume Rendering
- arxiv url: http://arxiv.org/abs/2310.20685v1
- Date: Tue, 31 Oct 2023 17:49:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 13:54:49.033393
- Title: NeRF Revisited: Fixing Quadrature Instability in Volume Rendering
- Title(参考訳): NeRF再考:ボリュームレンダリングにおける四面体不安定の修正
- Authors: Mikaela Angelina Uy, Kiyohiro Nakayama, Guandao Yang, Rahul Krishna
Thomas, Leonidas Guibas, Ke Li
- Abstract要約: 体積のレンダリングには各光線に沿った積分の評価が必要であり、これは有限和で数値的に近似される。
得られた結果は不安定であり、光線に沿ったサンプルの選択は、二次不安定性を見極める現象である。
本稿では, 線形体積密度の完全積分に対応するように, サンプルベースレンダリング方程式を再構成し, 数学的に原理化された解を提案する。
- 参考スコア(独自算出の注目度): 8.82933411096762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural radiance fields (NeRF) rely on volume rendering to synthesize novel
views. Volume rendering requires evaluating an integral along each ray, which
is numerically approximated with a finite sum that corresponds to the exact
integral along the ray under piecewise constant volume density. As a
consequence, the rendered result is unstable w.r.t. the choice of samples along
the ray, a phenomenon that we dub quadrature instability. We propose a
mathematically principled solution by reformulating the sample-based rendering
equation so that it corresponds to the exact integral under piecewise linear
volume density. This simultaneously resolves multiple issues: conflicts between
samples along different rays, imprecise hierarchical sampling, and
non-differentiability of quantiles of ray termination distances w.r.t. model
parameters. We demonstrate several benefits over the classical sample-based
rendering equation, such as sharper textures, better geometric reconstruction,
and stronger depth supervision. Our proposed formulation can be also be used as
a drop-in replacement to the volume rendering equation of existing NeRF-based
methods. Our project page can be found at pl-nerf.github.io.
- Abstract(参考訳): neural radiance fields (nerf) は新しいビューを合成するためにボリュームレンダリングに依存している。
体積レンダリングでは、各光線に沿った積分の評価が必要であり、この積分は分次定数体積密度の下での光線に沿った厳密な積分に対応する有限和で数値的に近似される。
その結果、結果として得られた結果は不安定な w.r.t. の光線に沿ったサンプルの選択である。
本稿では, 線形体積密度の完全積分に対応するように, サンプルベースレンダリング方程式を再構成し, 数学的に原理化された解を提案する。
これは同時に複数の問題を解決している: 異なる光線に沿ったサンプル間の衝突、不正確な階層的サンプリング、および線終端距離の分位数の非微分可能性 w.r.t.モデルパラメータ。
我々は, よりシャープなテクスチャ, 幾何的再構成, より深い深度管理など, 古典的なサンプルベースレンダリング方程式に対するいくつかの利点を示す。
提案する定式化は,既存のnrf方式のボリュームレンダリング方程式の代替として用いることもできる。
プロジェクトページはpl-nerf.github.ioにある。
関連論文リスト
- CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - Adaptive Shells for Efficient Neural Radiance Field Rendering [92.18962730460842]
本稿では, 表面および表面のレンダリングを円滑に遷移させるニューラル放射率の定式化を提案する。
我々の手法は、非常に高い忠実度で効率的なレンダリングを可能にする。
また,抽出したエンベロープは,アニメーションやシミュレーションなどの下流アプリケーションを可能にすることを示す。
論文 参考訳(メタデータ) (2023-11-16T18:58:55Z) - Differentiable Rendering with Reparameterized Volume Sampling [2.717399369766309]
ビュー合成において、ニューラルネットワークは、シーン画像のスパースセットに基づいて、基礎となる密度と放射場を近似する。
このレンダリングアルゴリズムは、完全に微分可能であり、フィールドの勾配に基づく最適化を容易にする。
逆変換サンプリングに基づく単純なエンドツーエンドの微分可能サンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-21T19:56:50Z) - Sampling Neural Radiance Fields for Refractive Objects [8.539183778516795]
この研究では、シーンは片方向の屈折率を持つ異質の体積であり、異なる屈折率を交差させると経路が湾曲する。
屈折物体の新規なビュー合成を目的として, 屈折物体シルエットを用いた多視点画像から, 境界体積および境界領域の放射界を最適化することを目的とした。
屈折率を考慮し,NeRFにおける層状および階層的サンプリング手法を拡張し,アイコン方程式で追跡された曲線に沿って試料を描画できるようにする。
論文 参考訳(メタデータ) (2022-11-27T11:43:21Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - DIVeR: Real-time and Accurate Neural Radiance Fields with Deterministic
Integration for Volume Rendering [11.05429980273764]
DIVeRは、NeRFとその変種である密度モデルとボリュームレンダリングに基づいて、少数の画像から現実的にレンダリングできる3Dオブジェクトモデルを学ぶ。
従来のすべてのNeRF法とは対照的に、DIVeRはボリュームレンダリング積分の推定よりも決定論的を用いる。
論文 参考訳(メタデータ) (2021-11-19T20:32:59Z) - Volume Rendering of Neural Implicit Surfaces [57.802056954935495]
本稿では,ニューラルボリュームレンダリングにおける幾何学的表現と再構成を改善することを目的とする。
体積密度を幾何学の関数としてモデル化することで実現する。
この新たな密度表現を挑戦的なシーンマルチビューデータセットに適用することで、高品質な幾何学的再構成を実現した。
論文 参考訳(メタデータ) (2021-06-22T20:23:16Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。