論文の概要: HyRF: Hybrid Radiance Fields for Memory-efficient and High-quality Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2509.17083v2
- Date: Tue, 23 Sep 2025 03:08:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 11:50:03.932688
- Title: HyRF: Hybrid Radiance Fields for Memory-efficient and High-quality Novel View Synthesis
- Title(参考訳): HyRF: メモリ効率・高画質新規ビュー合成のためのハイブリッド放射場
- Authors: Zipeng Wang, Dan Xu,
- Abstract要約: HyRF(Hybrid Radiance Fields)は、明示的なガウスとニューラルフィールドの強みを組み合わせた、新しいシーン表現である。
HyRFは3DGSに比べてモデルサイズを20倍以上削減しつつ、最先端のレンダリング品質を実現している。
- 参考スコア(独自算出の注目度): 11.71939856454585
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, 3D Gaussian Splatting (3DGS) has emerged as a powerful alternative to NeRF-based approaches, enabling real-time, high-quality novel view synthesis through explicit, optimizable 3D Gaussians. However, 3DGS suffers from significant memory overhead due to its reliance on per-Gaussian parameters to model view-dependent effects and anisotropic shapes. While recent works propose compressing 3DGS with neural fields, these methods struggle to capture high-frequency spatial variations in Gaussian properties, leading to degraded reconstruction of fine details. We present Hybrid Radiance Fields (HyRF), a novel scene representation that combines the strengths of explicit Gaussians and neural fields. HyRF decomposes the scene into (1) a compact set of explicit Gaussians storing only critical high-frequency parameters and (2) grid-based neural fields that predict remaining properties. To enhance representational capacity, we introduce a decoupled neural field architecture, separately modeling geometry (scale, opacity, rotation) and view-dependent color. Additionally, we propose a hybrid rendering scheme that composites Gaussian splatting with a neural field-predicted background, addressing limitations in distant scene representation. Experiments demonstrate that HyRF achieves state-of-the-art rendering quality while reducing model size by over 20 times compared to 3DGS and maintaining real-time performance. Our project page is available at https://wzpscott.github.io/hyrf/.
- Abstract(参考訳): 近年, 3D Gaussian Splatting (3DGS) が NeRF ベースのアプローチの強力な代替として登場し, 明示的で最適化可能な 3D Gaussian によるリアルタイム, 高品質な新規ビュー合成が可能となった。
しかし、3DGSは、ビュー依存効果と異方性形状をモデル化するためにガウス単位のパラメータに依存するため、メモリオーバーヘッドが著しく低下する。
近年の研究では3DGSをニューラルネットワークで圧縮する手法が提案されているが、これらの手法はガウス特性の高周波空間変動を捉えるのに苦慮しており、細部が劣化する。
HyRF(Hybrid Radiance Fields)は、明示的なガウスとニューラルフィールドの強みを組み合わせた、新しいシーン表現である。
HyRFは、シーンを(1)重要な高周波パラメータのみを格納する明示的なガウスのコンパクトな集合と、(2)残りの特性を予測するグリッドベースのニューラルネットワークに分解する。
表現能力を高めるために、分離されたニューラルネットワークアーキテクチャを導入し、幾何(スケール、不透明度、回転)とビュー依存色を別々にモデル化する。
さらに,ニューラルフィールド予測背景とガウススプラッティングを合成し,遠隔シーン表現の限界に対処するハイブリッドレンダリング手法を提案する。
実験により,HyRFは3DGSと比較してモデルサイズを20倍以上に削減し,リアルタイム性能を維持しながら,最先端のレンダリング品質を実現することが示された。
私たちのプロジェクトページはhttps://wzpscott.github.io/hyrf/.com/で公開されています。
関連論文リスト
- MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [84.07233691641193]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - Neural Signed Distance Function Inference through Splatting 3D Gaussians Pulled on Zero-Level Set [49.780302894956776]
多視点表面再構成における符号付き距離関数(SDF)の推測は不可欠である。
本稿では3DGSとニューラルSDFの学習をシームレスに融合する手法を提案する。
我々の数値的および視覚的比較は、広く使用されているベンチマークの最先端結果よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-10-18T05:48:06Z) - GaussianForest: Hierarchical-Hybrid 3D Gaussian Splatting for Compressed Scene Modeling [40.743135560583816]
本稿では,ハイブリッド3Dガウスの森として景観を階層的に表現するガウス・フォレスト・モデリング・フレームワークを紹介する。
実験により、ガウス・フォレストは同等の速度と品質を維持するだけでなく、圧縮速度が10倍を超えることが示されている。
論文 参考訳(メタデータ) (2024-06-13T02:41:11Z) - R$^2$-Gaussian: Rectifying Radiative Gaussian Splatting for Tomographic Reconstruction [53.19869886963333]
3次元ガウススプラッティング(3DGS)は画像のレンダリングと表面再構成において有望な結果を示した。
本稿では,Sparse-viewトモグラフィ再構成のための3DGSベースのフレームワークであるR2$-Gaussianを紹介する。
論文 参考訳(メタデータ) (2024-05-31T08:39:02Z) - F-3DGS: Factorized Coordinates and Representations for 3D Gaussian Splatting [13.653629893660218]
ニューラルレイディアンス場(NeRF)のレンダリング手法の代替として,F3DGS(Facterized 3D Gaussian Splatting)を提案する。
F-3DGSはレンダリング画像に匹敵する品質を維持しながら、ストレージコストを大幅に削減する。
論文 参考訳(メタデータ) (2024-05-27T11:55:49Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - Spec-Gaussian: Anisotropic View-Dependent Appearance for 3D Gaussian Splatting [55.71424195454963]
Spec-Gaussian は球面調和の代わりに異方性球面ガウス場を利用するアプローチである。
実験結果から,本手法はレンダリング品質の面で既存の手法を超越していることが示された。
この改良は、3D GSの適用性を高めて、特異面と異方面の複雑なシナリオを扱う。
論文 参考訳(メタデータ) (2024-02-24T17:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。