論文の概要: Volumetric Rendering with Baked Quadrature Fields
- arxiv url: http://arxiv.org/abs/2312.02202v1
- Date: Sat, 2 Dec 2023 20:45:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 18:37:05.040513
- Title: Volumetric Rendering with Baked Quadrature Fields
- Title(参考訳): Baked Quadrature Fields を用いたボリュームレンダリング
- Authors: Gopal Sharma, Daniel Rebain, Kwang Moo Yi, Andrea Tagliasacchi
- Abstract要約: テクスチャ化された多角形を利用して高速な推論を可能にする非透明シーンのための新しいニューラルラジアンス場(NeRF)表現を提案する。
本手法は,ボリュームレンダリングの利点を生かしながら,既存のグラフィックスフレームワークと容易に統合することができる。
- 参考スコア(独自算出の注目度): 37.44945640561406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel Neural Radiance Field (NeRF) representation for non-opaque
scenes that allows fast inference by utilizing textured polygons. Despite the
high-quality novel view rendering that NeRF provides, a critical limitation is
that it relies on volume rendering that can be computationally expensive and
does not utilize the advancements in modern graphics hardware. Existing methods
for this problem fall short when it comes to modelling volumetric effects as
they rely purely on surface rendering. We thus propose to model the scene with
polygons, which can then be used to obtain the quadrature points required to
model volumetric effects, and also their opacity and colour from the texture.
To obtain such polygonal mesh, we train a specialized field whose
zero-crossings would correspond to the quadrature points when volume rendering,
and perform marching cubes on this field. We then rasterize the polygons and
utilize the fragment shaders to obtain the final colour image. Our method
allows rendering on various devices and easy integration with existing graphics
frameworks while keeping the benefits of volume rendering alive.
- Abstract(参考訳): テクスチャ化された多角形を利用して高速な推論が可能な非透明シーンのための新しいニューラルラジアンス場(NeRF)表現を提案する。
NeRFが提供する高品質な新しいビューレンダリングにもかかわらず、重要な制限は、計算コストが高く、最新のグラフィックスハードウェアの進歩を利用できないボリュームレンダリングに依存することである。
この問題に対する既存の手法は、純粋に表面レンダリングに依存するボリューム効果のモデル化に関しては不足している。
そこで我々は,このシーンをポリゴンでモデル化し,体積効果のモデル化に必要な二次点と,その不透明度と色をテクスチャから得ることを提案する。
このような多角メッシュを得るために、ボリュームレンダリング時にゼロクロスが二次点に対応する特殊フィールドを訓練し、このフィールド上でマーチングキューブを実行する。
そして、ポリゴンをラスタ化し、フラグメントシェーダを用いて最終的なカラー画像を得る。
ボリュームレンダリングの利点を生かしながら、様々なデバイスでのレンダリングと既存のグラフィックスフレームワークとの統合を容易に行うことができる。
関連論文リスト
- EVER: Exact Volumetric Ellipsoid Rendering for Real-time View Synthesis [72.53316783628803]
実時間微分可能な発光専用ボリュームレンダリング法であるExact Volumetric Ellipsoid Rendering (EVER)を提案する。
3D Gaussian Splatting(3DGS)による最近の手法とは異なり、プリミティブベースの表現は正確なボリュームレンダリングを可能にする。
本手法は,3DGSよりもブレンディング問題の方が精度が高く,ビューレンダリングの追従作業も容易であることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:59:09Z) - 3D Gaussian Ray Tracing: Fast Tracing of Particle Scenes [50.36933474990516]
本研究は, 粒子のトレーシング, 境界体積階層の構築, 高性能なレイトレーシングハードウェアを用いた各画素のレイキャストについて考察する。
半透明粒子の多量処理を効率的に行うために,有界メッシュで粒子をカプセル化するアルゴリズムについて述べる。
実験は、我々のアプローチの速度と精度、およびコンピュータグラフィックスとビジョンにおけるいくつかの応用を実証する。
論文 参考訳(メタデータ) (2024-07-09T17:59:30Z) - TRIPS: Trilinear Point Splatting for Real-Time Radiance Field Rendering [6.142272540492937]
本稿では,ガウス版とADOP版の両方のアイデアを組み合わせたTRIPS(Trilinear Splatting)を提案する。
評価の結果,TRIPS はレンダリング品質の点で既存の最先端手法を超越していることがわかった。
このパフォーマンスは、複雑な幾何学、広大な風景、自動露光映像など、困難なシナリオにまで拡張されている。
論文 参考訳(メタデータ) (2024-01-11T16:06:36Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - Adaptive Shells for Efficient Neural Radiance Field Rendering [92.18962730460842]
本稿では, 表面および表面のレンダリングを円滑に遷移させるニューラル放射率の定式化を提案する。
我々の手法は、非常に高い忠実度で効率的なレンダリングを可能にする。
また,抽出したエンベロープは,アニメーションやシミュレーションなどの下流アプリケーションを可能にすることを示す。
論文 参考訳(メタデータ) (2023-11-16T18:58:55Z) - Multiscale Representation for Real-Time Anti-Aliasing Neural Rendering [84.37776381343662]
Mip-NeRFは、スケール情報をエンコードする円錐フラストラムとしてマルチスケール表現を提案する。
我々は,リアルタイムなアンチエイリアスレンダリングのためのマルチスケールな明示的表現であるmip voxel grids (Mip-VoG)を提案する。
私たちのアプローチは、マルチスケールのトレーニングとリアルタイムのアンチエイリアスレンダリングを同時に提供する最初の方法です。
論文 参考訳(メタデータ) (2023-04-20T04:05:22Z) - MobileNeRF: Exploiting the Polygon Rasterization Pipeline for Efficient
Neural Field Rendering on Mobile Architectures [22.557877400262402]
レージアンス・フィールズ(NeRF)は、新しい視点から3Dシーンの画像を合成する素晴らしい能力を実証した。
広くデプロイされたグラフィックスハードウェアの能力にマッチしない、レイマーチングに基づく特殊なレンダリングアルゴリズムに依存している。
本稿では,テクスチャ化されたポリゴンをベースとした新しいNeRF表現を提案する。
論文 参考訳(メタデータ) (2022-07-30T17:14:14Z) - TermiNeRF: Ray Termination Prediction for Efficient Neural Rendering [18.254077751772005]
ニューラルネットワークを用いたボリュームレンダリングは、3Dシーンの新たなビューをキャプチャして合成する上で大きな可能性を秘めている。
この種のアプローチでは、画像をレンダリングするために、各ビューレイに沿って複数のポイントでボリュームネットワークをクエリする必要がある。
本稿では,この限界を克服するために,画素の最終的な外観に影響を与える可能性が最も高いカメラ線から,光線に沿った位置への直接マッピングを学習する手法を提案する。
論文 参考訳(メタデータ) (2021-11-05T17:50:44Z) - Baking Neural Radiance Fields for Real-Time View Synthesis [41.07052395570522]
我々は、NeRFをトレーニングし、プリコンプリートし、保存する(すなわち)方法を提案する。
「ベイク」はスパースニューラルネットワーク放射格子(snerg)と呼ばれる新しい表現である。
結果として生じるシーン表現は、細かい幾何学的詳細とビュー依存の外観をレンダリングするNeRFの能力を保持し、コンパクトであり、リアルタイムでレンダリングすることができる。
論文 参考訳(メタデータ) (2021-03-26T17:59:52Z) - Neural Sparse Voxel Fields [151.20366604586403]
高速かつ高品質な自由視点レンダリングのためのニューラルシーン表現であるNeural Sparse Voxel Fields (NSVF)を紹介する。
NSVFは、各細胞の局所特性をモデル化するために、スパース・ボクセル・オクツリーで組織された、ボクセルに結合した暗黙のフィールドのセットを定義する。
提案手法は, 高い品質を達成しつつ, 推論時の最先端技術(NeRF(Mildenhall et al., 2020))よりも10倍以上高速である。
論文 参考訳(メタデータ) (2020-07-22T17:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。