論文の概要: 1000+ FPS 4D Gaussian Splatting for Dynamic Scene Rendering
- arxiv url: http://arxiv.org/abs/2503.16422v1
- Date: Thu, 20 Mar 2025 17:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:31:39.766661
- Title: 1000+ FPS 4D Gaussian Splatting for Dynamic Scene Rendering
- Title(参考訳): ダイナミックシーンレンダリングのための1000以上のFPS 4Dガウス平滑化
- Authors: Yuheng Yuan, Qiuhong Shen, Xingyi Yang, Xinchao Wang,
- Abstract要約: 最新のシーンGPU上で1000FPS以上で動作する textbf4DGS-1K を提案する。
Q1では,短寿命ガウスを効果的に除去する新しいプルーニング基準である空間時間変動スコアを導入する。
Q2では、連続するフレーム間でアクティブなガウスのマスクを格納し、レンダリングにおける冗長な計算を著しく削減する。
- 参考スコア(独自算出の注目度): 60.676919690136096
- License:
- Abstract: 4D Gaussian Splatting (4DGS) has recently gained considerable attention as a method for reconstructing dynamic scenes. Despite achieving superior quality, 4DGS typically requires substantial storage and suffers from slow rendering speed. In this work, we delve into these issues and identify two key sources of temporal redundancy. (Q1) \textbf{Short-Lifespan Gaussians}: 4DGS uses a large portion of Gaussians with short temporal span to represent scene dynamics, leading to an excessive number of Gaussians. (Q2) \textbf{Inactive Gaussians}: When rendering, only a small subset of Gaussians contributes to each frame. Despite this, all Gaussians are processed during rasterization, resulting in redundant computation overhead. To address these redundancies, we present \textbf{4DGS-1K}, which runs at over 1000 FPS on modern GPUs. For Q1, we introduce the Spatial-Temporal Variation Score, a new pruning criterion that effectively removes short-lifespan Gaussians while encouraging 4DGS to capture scene dynamics using Gaussians with longer temporal spans. For Q2, we store a mask for active Gaussians across consecutive frames, significantly reducing redundant computations in rendering. Compared to vanilla 4DGS, our method achieves a $41\times$ reduction in storage and $9\times$ faster rasterization speed on complex dynamic scenes, while maintaining comparable visual quality. Please see our project page at https://4DGS-1K.github.io.
- Abstract(参考訳): 近年,動的シーンの再構築手法として,4DGS (4D Gaussian Splatting) が注目されている。
優れた品質を達成しているにもかかわらず、4DGSは通常、かなりのストレージを必要とし、レンダリング速度の遅さに悩まされる。
本研究では、これらの問題を掘り下げ、時間的冗長性の2つの重要な原因を特定する。
(Q1) \textbf{Short-Lifespan Gaussians}: 4DGS はシーンダイナミクスを表現するために短い時間空間を持つガウス語の大部分を使用し、過剰な数のガウス語を生み出している。
(Q2) \textbf{Inactive Gaussian}: レンダリング時には、ガウスの小さな部分集合のみが各フレームに寄与する。
それにもかかわらず、全てのガウスアンはラスタ化時に処理され、結果として冗長な計算オーバーヘッドが生じる。
これらの冗長性に対処するために、現在のGPU上で1000FPS以上で動作する \textbf{4DGS-1K} を提案する。
Q1では,空間時間変動スコア(Spatial-Temporal Variation Score)を導入し,短寿命ガウシアンを効果的に除去すると同時に,時間長ガウシアンを用いたシーンダイナミクスのキャプチャを4DGSに促す。
Q2では、連続するフレーム間でアクティブなガウスのマスクを格納し、レンダリングにおける冗長な計算を著しく削減する。
バニラ4DGSと比較して、われわれの方法は、ストレージの411ドル、複雑なダイナミックシーンでのラスタライズ速度を9ドルに短縮し、視覚的品質を同等に保ちます。
プロジェクトページはhttps://4DGS-1K.github.io.comでご覧ください。
関連論文リスト
- Representing Long Volumetric Video with Temporal Gaussian Hierarchy [80.51373034419379]
本稿では,多視点RGBビデオから長いボリューム映像を再構成することの課題を解決することを目的とする。
本稿では,テンポラルガウス階層(Temporal Gaussian Hierarchy)と呼ばれる新しい4次元表現を提案する。
この研究は、最先端のレンダリング品質を維持しながら、ボリュームビデオデータの分を効率的に処理できる最初のアプローチである。
論文 参考訳(メタデータ) (2024-12-12T18:59:34Z) - 4D Scaffold Gaussian Splatting for Memory Efficient Dynamic Scene Reconstruction [27.455934322535853]
ストレージコストを低減しつつ、4Dガウスの視覚的品質とレンダリング速度を維持する4Dアンカーベースのフレームワークを提案する。
実験結果から,4DGSよりも最先端の視覚的品質と97.8%のストレージ削減を実現した。
論文 参考訳(メタデータ) (2024-11-26T02:22:07Z) - Fully Explicit Dynamic Gaussian Splatting [22.889981393105554]
3D Gaussian Splattingは、高密度な3D事前表現と明示的な表現を活用することで、静的シーンにおける高速かつ高品質なレンダリング結果を示している。
本稿では,Ex4DGSの収束性を改善するためのプログレッシブトレーニング手法とポイントバックトラッキング手法を提案する。
2080TiのGPU上で62fpsの高速レンダリングを実現するため,様々な場面での総合的な実験を行った。
論文 参考訳(メタデータ) (2024-10-21T04:25:43Z) - MEGA: Memory-Efficient 4D Gaussian Splatting for Dynamic Scenes [49.36091070642661]
本稿では,4DGSのためのメモリ効率フレームワークを提案する。
TechnicolorとNeural 3D Videoのデータセットで約190$times$と125$times$のストレージ削減を実現している。
レンダリング速度とシーン表現の品質を維持し、フィールドに新しい標準を設定する。
論文 参考訳(メタデータ) (2024-10-17T14:47:08Z) - Compact 3D Gaussian Splatting for Static and Dynamic Radiance Fields [13.729716867839509]
ハイパフォーマンスを維持しつつガウスの数を著しく削減する学習可能なマスク戦略を提案する。
さらに、格子型ニューラルネットワークを用いて、ビュー依存色をコンパクトかつ効果的に表現することを提案する。
我々の研究は、3Dシーン表現のための包括的なフレームワークを提供し、ハイパフォーマンス、高速トレーニング、コンパクト性、リアルタイムレンダリングを実現しています。
論文 参考訳(メタデータ) (2024-08-07T14:56:34Z) - Dynamic Gaussian Marbles for Novel View Synthesis of Casual Monocular Videos [58.22272760132996]
既存の4次元ガウス法は単分子配置が制約されていないため、この設定で劇的に失敗することを示す。
単分子配置の難易度を目標とした3つのコア修正からなる動的ガウス大理石を提案する。
Nvidia Dynamic ScenesデータセットとDyCheck iPhoneデータセットを評価し,Gaussian Marblesが他のGaussianベースラインを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-26T19:37:07Z) - RTG-SLAM: Real-time 3D Reconstruction at Scale using Gaussian Splatting [51.51310922527121]
ガウススプラッティングを用いた大規模環境のためのRGBDカメラを用いたリアルタイム3D再構成システムを提案する。
それぞれのガウス語は不透明かほぼ透明で、不透明なものは表面色と支配的な色に、透明なものは残留色に適合する。
様々な大きなシーンをリアルタイムに再現し、新しいビュー合成とカメラトラッキングの精度のリアリズムにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-30T16:54:59Z) - 4D Gaussian Splatting for Real-Time Dynamic Scene Rendering [103.32717396287751]
本研究では,動的シーンの全体像として4D-GS(Gaussian Splatting)を提案する。
HexPlaneにインスパイアされたニューラルボクセル符号化アルゴリズムは、4Dニューラルボクセルの機能を効率的に構築するために提案されている。
我々の4D-GS法は、高解像度の82 FPSで、3090 GPUで800$times$800の解像度でリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2023-10-12T17:21:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。