論文の概要: Sparse Voxels Rasterization: Real-time High-fidelity Radiance Field Rendering
- arxiv url: http://arxiv.org/abs/2412.04459v1
- Date: Thu, 05 Dec 2024 18:59:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:39:40.530195
- Title: Sparse Voxels Rasterization: Real-time High-fidelity Radiance Field Rendering
- Title(参考訳): Sparse Voxels Rasterization: Real-time High-fidelity Radiance Field Rendering
- Authors: Cheng Sun, Jaesung Choe, Charles Loop, Wei-Chiu Ma, Yu-Chiang Frank Wang,
- Abstract要約: ニューラルネットワークや3Dガウスアンを使わずにスパースボクセル上に放射化処理を組み込んだ効率的な放射場レンダリングアルゴリズムを提案する。
我々は、シーン内の様々な詳細レベルにスパースボクセルを適応的に適合させ、高いレンダリングフレームレートを達成しながら詳細を忠実に再現する。
提案手法は,4db以上のPSNRと10倍以上のFPS高速化により,従来の神経フリーなボクセルグリッド表現を改善した。
- 参考スコア(独自算出の注目度): 37.48219196092378
- License:
- Abstract: We propose an efficient radiance field rendering algorithm that incorporates a rasterization process on sparse voxels without neural networks or 3D Gaussians. There are two key contributions coupled with the proposed system. The first is to render sparse voxels in the correct depth order along pixel rays by using dynamic Morton ordering. This avoids the well-known popping artifact found in Gaussian splatting. Second, we adaptively fit sparse voxels to different levels of detail within scenes, faithfully reproducing scene details while achieving high rendering frame rates. Our method improves the previous neural-free voxel grid representation by over 4db PSNR and more than 10x rendering FPS speedup, achieving state-of-the-art comparable novel-view synthesis results. Additionally, our neural-free sparse voxels are seamlessly compatible with grid-based 3D processing algorithms. We achieve promising mesh reconstruction accuracy by integrating TSDF-Fusion and Marching Cubes into our sparse grid system.
- Abstract(参考訳): ニューラルネットワークや3Dガウスアンを使わずにスパースボクセルにラスタ化処理を組み込んだ効率的なラジアンス場レンダリングアルゴリズムを提案する。
提案システムには2つの重要な貢献がある。
1つ目は、ダイナミックモートン順序付けを用いて、ピクセル線に沿って正しい深さ順にスパースボクセルを描画することである。
これにより、ガウススプラッティングに見られる有名なポップアーティファクトを避けることができる。
第2に、シーン内の様々な詳細レベルにスパースボクセルを適応的に適合させ、高いレンダリングフレームレートを達成しつつ、シーンの詳細を忠実に再現する。
提案手法は,4dbPSNR以上と10倍以上のFPS高速化により,従来の神経フリーなボクセルグリッド表現を改良し,最先端のノベルビュー合成結果を実現する。
さらに、ニューラルネットワークのないスパースボクセルは、グリッドベースの3D処理アルゴリズムとシームレスに互換性がある。
我々は, TSDF-Fusionとマーチングキューブをスパースグリッドシステムに統合することにより, 有望なメッシュ再構築精度を実現する。
関連論文リスト
- SCube: Instant Large-Scale Scene Reconstruction using VoxSplats [55.383993296042526]
SCubeは画像の粗い集合から大規模3次元シーン(幾何学、外観、意味論)を再構成する新しい手法である。
提案手法は,高解像度のスパース・ボクセル・足場上に支持された3次元ガウスの組である,新しい表現VoxSplatを用いて再構成シーンを符号化する。
論文 参考訳(メタデータ) (2024-10-26T00:52:46Z) - MeshGS: Adaptive Mesh-Aligned Gaussian Splatting for High-Quality Rendering [61.64903786502728]
本稿では,メッシュ表現を3次元ガウススプラットと統合し,再現された現実世界のシーンの高品質なレンダリングを実現する手法を提案する。
各ガウススプレートとメッシュ表面との距離を, 密接な束縛と緩い束縛の相違点として検討した。
提案手法は,2dB高いPSNRを達成し,メッシュベースのガウス分割法を1.3dBPSNRで上回った。
論文 参考訳(メタデータ) (2024-10-11T16:07:59Z) - RayGauss: Volumetric Gaussian-Based Ray Casting for Photorealistic Novel View Synthesis [3.4341938551046227]
微分レンダリング法は、新しいビュー合成に大きな進歩をもたらした。
不規則分布ガウスの異なる光線鋳造のための放射放射率cと密度シグマを一貫した定式化を行う。
適切なトレーニング時間を維持しつつ、Blenderデータセット上で25FPSの推論速度を達成しながら、最先端のレンダリングよりも優れた品質を実現する。
論文 参考訳(メタデータ) (2024-08-06T10:59:58Z) - R$^2$-Gaussian: Rectifying Radiative Gaussian Splatting for Tomographic Reconstruction [53.19869886963333]
3次元ガウススプラッティング(3DGS)は画像のレンダリングと表面再構成において有望な結果を示した。
本稿では,Sparse-viewトモグラフィ再構成のための3DGSベースのフレームワークであるR2$-Gaussianを紹介する。
論文 参考訳(メタデータ) (2024-05-31T08:39:02Z) - N-BVH: Neural ray queries with bounding volume hierarchies [51.430495562430565]
3Dコンピュータグラフィックスでは、シーンのメモリ使用量の大部分がポリゴンとテクスチャによるものである。
N-BVHは3次元の任意の光線クエリに応答するように設計されたニューラル圧縮アーキテクチャである。
本手法は, 視認性, 深度, 外観特性を忠実に近似する。
論文 参考訳(メタデータ) (2024-05-25T13:54:34Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - Mip-Grid: Anti-aliased Grid Representations for Neural Radiance Fields [12.910072009005065]
我々は、反エイリアス手法をグリッドベースの放射場表現に組み込む新しいアプローチであるmip-blurを提案する。
提案手法は,共有グリッド表現上に単純な畳み込み演算を適用してマルチスケールグリッドを生成する。
論文 参考訳(メタデータ) (2024-02-22T00:45:40Z) - Learning Neural Duplex Radiance Fields for Real-Time View Synthesis [33.54507228895688]
本研究では,NeRFを高効率メッシュベースニューラル表現に蒸留・焼成する手法を提案する。
提案手法の有効性と優位性を,各種標準データセットの広範な実験を通じて実証する。
論文 参考訳(メタデータ) (2023-04-20T17:59:52Z) - Multiscale Representation for Real-Time Anti-Aliasing Neural Rendering [84.37776381343662]
Mip-NeRFは、スケール情報をエンコードする円錐フラストラムとしてマルチスケール表現を提案する。
我々は,リアルタイムなアンチエイリアスレンダリングのためのマルチスケールな明示的表現であるmip voxel grids (Mip-VoG)を提案する。
私たちのアプローチは、マルチスケールのトレーニングとリアルタイムのアンチエイリアスレンダリングを同時に提供する最初の方法です。
論文 参考訳(メタデータ) (2023-04-20T04:05:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。