論文の概要: DIVeR: Real-time and Accurate Neural Radiance Fields with Deterministic
Integration for Volume Rendering
- arxiv url: http://arxiv.org/abs/2111.10427v1
- Date: Fri, 19 Nov 2021 20:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 15:22:07.081735
- Title: DIVeR: Real-time and Accurate Neural Radiance Fields with Deterministic
Integration for Volume Rendering
- Title(参考訳): DIVeR:ボリュームレンダリングのための決定論的統合によるリアルタイムかつ高精度なニューラルラジアンスフィールド
- Authors: Liwen Wu, Jae Yong Lee, Anand Bhattad, Yuxiong Wang, David Forsyth
- Abstract要約: DIVeRは、NeRFとその変種である密度モデルとボリュームレンダリングに基づいて、少数の画像から現実的にレンダリングできる3Dオブジェクトモデルを学ぶ。
従来のすべてのNeRF法とは対照的に、DIVeRはボリュームレンダリング積分の推定よりも決定論的を用いる。
- 参考スコア(独自算出の注目度): 11.05429980273764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: DIVeR builds on the key ideas of NeRF and its variants -- density models and
volume rendering -- to learn 3D object models that can be rendered
realistically from small numbers of images. In contrast to all previous NeRF
methods, DIVeR uses deterministic rather than stochastic estimates of the
volume rendering integral. DIVeR's representation is a voxel based field of
features. To compute the volume rendering integral, a ray is broken into
intervals, one per voxel; components of the volume rendering integral are
estimated from the features for each interval using an MLP, and the components
are aggregated. As a result, DIVeR can render thin translucent structures that
are missed by other integrators. Furthermore, DIVeR's representation has
semantics that is relatively exposed compared to other such methods -- moving
feature vectors around in the voxel space results in natural edits. Extensive
qualitative and quantitative comparisons to current state-of-the-art methods
show that DIVeR produces models that (1) render at or above state-of-the-art
quality, (2) are very small without being baked, (3) render very fast without
being baked, and (4) can be edited in natural ways.
- Abstract(参考訳): diverは、nerfとその変種である密度モデルとボリュームレンダリングの重要なアイデアに基づいて構築され、少数の画像からリアルにレンダリングできる3dオブジェクトモデルを学ぶ。
従来のすべてのNeRF法とは対照的に、DIVeRはボリュームレンダリング積分の確率的推定よりも決定論的を用いる。
DIVeRの表現は、特徴のボクセルベースのフィールドである。
ボリュームレンダリング積分を計算するために、光線をボクセル毎に間隔に分割し、mlpを用いて各区間の特徴からボリュームレンダリング積分の成分を推定し、部品を集約する。
その結果、ダイバーは、他のインテグレータが見逃している薄い半透明な構造をレンダリングできる。
さらに、ダイバーの表現には、他の方法と比較して相対的に露出するセマンティクスがある -- ボクセル空間で特徴ベクトルを動かすと、自然に編集される。
現在の最先端手法との広範囲な質的、定量的比較により、ダイバーは(1)最先端品質以上、(2)焼成せずに非常に小さく、(3)焼成せずに非常に高速に、(4)自然に編集できるモデルを生成することが示された。
関連論文リスト
- Mesh2NeRF: Direct Mesh Supervision for Neural Radiance Field Representation and Generation [51.346733271166926]
Mesh2NeRFは、3次元生成タスクのためのテクスチャメッシュから地上構造放射場を導出するアプローチである。
各種タスクにおけるMesh2NeRFの有効性を検証する。
論文 参考訳(メタデータ) (2024-03-28T11:22:53Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - Rethinking Directional Integration in Neural Radiance Fields [8.012147983948665]
数行のコード変更をNeRF変種に対して行うのと同じくらい簡単なNeRFレンダリング方程式の修正を導入する。
修正方程式は、学習された光線埋め込みによる光場レンダリングと解釈できることを示す。
論文 参考訳(メタデータ) (2023-11-28T18:59:50Z) - NeRF Revisited: Fixing Quadrature Instability in Volume Rendering [8.82933411096762]
体積のレンダリングには各光線に沿った積分の評価が必要であり、これは有限和で数値的に近似される。
得られた結果は不安定であり、光線に沿ったサンプルの選択は、二次不安定性を見極める現象である。
本稿では, 線形体積密度の完全積分に対応するように, サンプルベースレンダリング方程式を再構成し, 数学的に原理化された解を提案する。
論文 参考訳(メタデータ) (2023-10-31T17:49:48Z) - Local Implicit Ray Function for Generalizable Radiance Field
Representation [20.67358742158244]
本稿では、新しいビューレンダリングのための一般化可能なニューラルレンダリング手法であるLIRF(Local Implicit Ray Function)を提案する。
円錐体フラスタム内の3次元位置が与えられると、LIRFは3次元座標と円錐体フラスタムの特徴を入力として取り、局所体積放射場を予測する。
座標は連続しているため、LIRFはボリュームレンダリングを通じて、高品質の新規ビューを継続的に評価する。
論文 参考訳(メタデータ) (2023-04-25T11:52:33Z) - IBL-NeRF: Image-Based Lighting Formulation of Neural Radiance Fields [12.056350920398396]
大規模屋内シーンのニューラル放射場(NeRF)を固有成分に分解するIRB-NeRFを提案する。
提案手法は,合成画像や固有成分に対して,優れた視覚的品質とマルチビューの整合性を継承する。
論文 参考訳(メタデータ) (2022-10-15T05:38:55Z) - Volume Rendering of Neural Implicit Surfaces [57.802056954935495]
本稿では,ニューラルボリュームレンダリングにおける幾何学的表現と再構成を改善することを目的とする。
体積密度を幾何学の関数としてモデル化することで実現する。
この新たな密度表現を挑戦的なシーンマルチビューデータセットに適用することで、高品質な幾何学的再構成を実現した。
論文 参考訳(メタデータ) (2021-06-22T20:23:16Z) - UNISURF: Unifying Neural Implicit Surfaces and Radiance Fields for
Multi-View Reconstruction [61.17219252031391]
ニューラル暗黙的3D表現を用いた多視点画像から表面を再構築する新しい手法を提案する。
我々の重要な洞察は、暗黙の曲面モデルと放射場を統一的に定式化し、表面および体積のレンダリングを可能にすることである。
実験により, マスクを必要とせず, idrと同等の性能を保ちつつ, 再構成品質でnrfを上回った。
論文 参考訳(メタデータ) (2021-04-20T15:59:38Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。