論文の概要: 4D Neural Voxel Splatting: Dynamic Scene Rendering with Voxelized Guassian Splatting
- arxiv url: http://arxiv.org/abs/2511.00560v1
- Date: Sat, 01 Nov 2025 13:49:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.844137
- Title: 4D Neural Voxel Splatting: Dynamic Scene Rendering with Voxelized Guassian Splatting
- Title(参考訳): 4Dニューラルボクセル・スメッティング:ボクセル化ガウス・スメッティングによる動的シーンレンダリング
- Authors: Chun-Tin Wu, Jun-Cheng Chen,
- Abstract要約: ボクセルをベースとした表現とニューラルガウススプラッティングを組み合わせた4Dニューラルボクセルスプラッティング(4D-NVS)を提案する。
本手法では,時間的ダイナミクスをモデル化するために,学習された変形場を備えたコンパクトな神経ボクセルを用いる。
実験により,本手法はメモリの大幅な削減とトレーニングの高速化により最先端の手法よりも優れており,より優れた視覚的忠実度を持つリアルタイムレンダリングを実現している。
- 参考スコア(独自算出の注目度): 14.169895534396952
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although 3D Gaussian Splatting (3D-GS) achieves efficient rendering for novel view synthesis, extending it to dynamic scenes still results in substantial memory overhead from replicating Gaussians across frames. To address this challenge, we propose 4D Neural Voxel Splatting (4D-NVS), which combines voxel-based representations with neural Gaussian splatting for efficient dynamic scene modeling. Instead of generating separate Gaussian sets per timestamp, our method employs a compact set of neural voxels with learned deformation fields to model temporal dynamics. The design greatly reduces memory consumption and accelerates training while preserving high image quality. We further introduce a novel view refinement stage that selectively improves challenging viewpoints through targeted optimization, maintaining global efficiency while enhancing rendering quality for difficult viewing angles. Experiments demonstrate that our method outperforms state-of-the-art approaches with significant memory reduction and faster training, enabling real-time rendering with superior visual fidelity.
- Abstract(参考訳): 3D Gaussian Splatting (3D-GS)は、新しいビュー合成のための効率的なレンダリングを実現するが、動的シーンに拡張することで、フレーム間のガウスの複製によるメモリオーバーヘッドが大幅に増大する。
この課題に対処するために,ボクセルをベースとした表現とニューラルガウススプラッティングを組み合わせた4Dニューラルボクセルスプラッティング(4D-NVS)を提案する。
タイムスタンプ毎に個別のガウス集合を生成する代わりに、学習された変形場を持つコンパクトなニューラルボクセルを用いて時間力学をモデル化する。
この設計はメモリ消費を大幅に削減し、高画質を維持しながらトレーニングを加速する。
さらに、目標最適化による難易度を選択的に改善し、グローバルな効率を保ちながら、難易度の高い視角のレンダリング品質を向上する、新しい視界改善ステージも導入する。
実験により,本手法はメモリの大幅な削減とトレーニングの高速化により最先端の手法よりも優れており,より優れた視覚的忠実度を持つリアルタイムレンダリングを実現している。
関連論文リスト
- Perceive-Sample-Compress: Towards Real-Time 3D Gaussian Splatting [7.421996491601524]
本稿では,3次元ガウス平滑化のための新しい知覚・サンプル圧縮フレームワークを提案する。
提案手法は,リアルタイムレンダリング速度を維持しながら,メモリ効率と視覚的品質を大幅に向上することを示す。
論文 参考訳(メタデータ) (2025-08-07T01:34:38Z) - LODGE: Level-of-Detail Large-Scale Gaussian Splatting with Efficient Rendering [75.67501939005119]
メモリ制約デバイス上での3次元ガウススプラッティングのための新しいレベル・オブ・ディーテール(LOD)法を提案する。
カメラ距離に基づいてガウスの最適部分集合を反復的に選択する。
本手法は,屋外(階層型3DGS)と屋内(Zip-NeRF)の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-05-29T06:50:57Z) - Disentangled 4D Gaussian Splatting: Rendering High-Resolution Dynamic World at 343 FPS [19.325184656153727]
本稿では,新しい表現・レンダリングパイプラインであるDisentangled 4D Gaussian Splatting (Disentangled 4DGS)を紹介する。
Disentangled4DGSは、4Dガウスの時間的および空間的成分を分離し、一次元および四次元行列計算のスライシングを避ける。
提案手法は,マルチビューとモノクロの両方の動的シーンデータセットにおいて,既存の手法よりも優れた動的新規ビュー合成のための新しいベンチマークを設定できる。
論文 参考訳(メタデータ) (2025-03-28T05:46:02Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - Deformable 3D Gaussians for High-Fidelity Monocular Dynamic Scene
Reconstruction [29.83056271799794]
暗黙の神経表現は、動的なシーンの再構築とレンダリングに対する新しいアプローチの道を開いた。
本稿では,3次元ガウシアンを用いてシーンを再構成し,標準空間で学習する,変形可能な3次元ガウシアンスプラッティング法を提案する。
微分ガウシアン化器により、変形可能な3Dガウシアンは高いレンダリング品質だけでなく、リアルタイムレンダリング速度も達成できる。
論文 参考訳(メタデータ) (2023-09-22T16:04:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。