論文の概要: P-4DGS: Predictive 4D Gaussian Splatting with 90$\times$ Compression
- arxiv url: http://arxiv.org/abs/2510.10030v1
- Date: Sat, 11 Oct 2025 05:19:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.745008
- Title: P-4DGS: Predictive 4D Gaussian Splatting with 90$\times$ Compression
- Title(参考訳): P-4DGS:90$\times$圧縮を備えた予測的な4Dガウシアンスプラッティング
- Authors: Henan Wang, Hanxin Zhu, Xinliang Gong, Tianyu He, Xin Li, Zhibo Chen,
- Abstract要約: 3D Gaussian Splatting (3DGS) は、シーン表現の忠実さとリアルタイムレンダリング性能が優れており、注目されている。
有望な結果を得たにもかかわらず、既存のアルゴリズムのほとんどは、動的シーンに固有の時間的および空間的冗長性を見落としている。
コンパクトな4次元シーンモデリングのための新しい動的3DGS表現であるP-4DGSを提案する。
- 参考スコア(独自算出の注目度): 26.130131551764077
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) has garnered significant attention due to its superior scene representation fidelity and real-time rendering performance, especially for dynamic 3D scene reconstruction (\textit{i.e.}, 4D reconstruction). However, despite achieving promising results, most existing algorithms overlook the substantial temporal and spatial redundancies inherent in dynamic scenes, leading to prohibitive memory consumption. To address this, we propose P-4DGS, a novel dynamic 3DGS representation for compact 4D scene modeling. Inspired by intra- and inter-frame prediction techniques commonly used in video compression, we first design a 3D anchor point-based spatial-temporal prediction module to fully exploit the spatial-temporal correlations across different 3D Gaussian primitives. Subsequently, we employ an adaptive quantization strategy combined with context-based entropy coding to further reduce the size of the 3D anchor points, thereby achieving enhanced compression efficiency. To evaluate the rate-distortion performance of our proposed P-4DGS in comparison with other dynamic 3DGS representations, we conduct extensive experiments on both synthetic and real-world datasets. Experimental results demonstrate that our approach achieves state-of-the-art reconstruction quality and the fastest rendering speed, with a remarkably low storage footprint (around \textbf{1MB} on average), achieving up to \textbf{40$\times$} and \textbf{90$\times$} compression on synthetic and real-world scenes, respectively.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS) は、特に動的3Dシーン再構成(\textit{i.e.} 4D再構成)において、シーン表現の忠実さとリアルタイムレンダリング性能が優れており、注目されている。
しかし、有望な結果を得たにもかかわらず、既存のアルゴリズムのほとんどは、動的シーンに固有の時間的および空間的冗長性を見落とし、メモリ消費を禁止している。
そこで本研究では,コンパクトな4次元シーンモデリングのための動的3DGS表現であるP-4DGSを提案する。
ビデオ圧縮で一般的に使用されるフレーム内およびフレーム間予測技術に着想を得て,まず3次元ガウスプリミティブ間の空間時間相関をフル活用する3次元アンカー点に基づく時空間予測モジュールを設計する。
その後,適応量子化戦略とコンテキストベースのエントロピー符号化を併用して,3次元アンカー点のサイズをさらに小さくし,圧縮効率を向上する。
提案したP-4DGSの速度歪み特性を,他の動的3DGS表現と比較して評価するために,合成データセットと実世界のデータセットの両方について広範な実験を行った。
実験結果から,本手法は,合成シーンと実世界のシーンにおいて,ストレージフットプリントが著しく低く(平均では \textbf{1MB} 前後),最大で \textbf{40$\times$} と \textbf{90$\times$} の圧縮を実現していることがわかった。
関連論文リスト
- Speedy Deformable 3D Gaussian Splatting: Fast Rendering and Compression of Dynamic Scenes [57.69608119350651]
動的シーンへの3次元ガウススティング(3DGS)の最近の拡張は、ニューラルネットワークを用いて各ガウスの時間変化変形を予測することによって、高品質な新規ビュー合成を実現する。
しかしながら、ガウス毎のニューラルネットワークを各フレームで実行することは、レンダリング速度を制限し、メモリと計算要求を増大させる、重大なボトルネックとなる。
動的3DGSおよび4DGS表現のレンダリング速度を2つの相補的手法により低減し,高速化する汎用パイプラインであるSpeedy Deformable 3D Gaussian Splatting(SpeeDe3DGS)を提案する。
論文 参考訳(メタデータ) (2025-06-09T16:30:48Z) - Disentangled 4D Gaussian Splatting: Towards Faster and More Efficient Dynamic Scene Rendering [12.27734287104036]
2次元画像から動的シーンを合成する新アンタングルビュー合成(NVS)は重要な課題である。
時間的および空間的変形を両立させる新しい表現・レンダリング手法であるDisentangled 4D Gaussianting(Disentangled4DGS)を導入する。
提案手法は,3090 GPU上での1352times1014$の解像度で,343FPSの平均レンダリング速度を実現している。
論文 参考訳(メタデータ) (2025-03-28T05:46:02Z) - 4DGC: Rate-Aware 4D Gaussian Compression for Efficient Streamable Free-Viewpoint Video [56.04182926886754]
3D Gaussian Splatting (3DGS)は、フォトリアリスティック・フリー・ビューポイント・ビデオ(FVV)体験を可能にする大きな可能性を秘めている。
既存の方法は、動的3DGS表現と圧縮を別々に扱うのが一般的である。
本稿では,FVVのRD性能を向上しつつ,ストレージサイズを大幅に削減するレート対応4Dガウス圧縮フレームワークである4DGCを提案する。
論文 参考訳(メタデータ) (2025-03-24T08:05:27Z) - Light4GS: Lightweight Compact 4D Gaussian Splatting Generation via Context Model [21.375070073632944]
3次元ビュー合成技術(3DGS)は,新規・新規コンテンツのための効率的な高忠実度パラダイムとして登場している。
3DGSを動的コンテンツに適用するために、変形可能な3DGSは、時間的に変形可能なプリミティブと学習可能な遅延埋め込みを組み込んで複雑な動きをキャプチャする。
優れた性能にもかかわらず、高次元の埋め込みと大量のプリミティブは、かなりのストレージ要件をもたらす。
論文 参考訳(メタデータ) (2025-03-18T06:28:13Z) - Locality-aware Gaussian Compression for Fast and High-quality Rendering [37.16956462469969]
局所性を考慮した3Dガウススティング(3DGS)フレームワークであるLocoGSを紹介し,3Dガウスアンの空間コヒーレンスを利用してシーンのコンパクトなモデリングを行う。
まず,3次元ガウス属性の局所的コヒーレンスを解析し,局所的コヒーレントなガウス属性を効果的に符号化する3次元ガウス表現を提案する。
論文 参考訳(メタデータ) (2025-01-10T07:19:41Z) - 4D Gaussian Splatting: Modeling Dynamic Scenes with Native 4D Primitives [115.67081491747943]
動的3Dシーン表現と新しいビュー合成はAR/VRおよびメタバースアプリケーションの実現に不可欠である。
我々は,その基礎となる4次元体積を近似として,時間変化の異なる3次元シーンの再構成を再構成する。
ストレージのボトルネックに対処するため、メモリフットプリントを効果的に削減するいくつかのコンパクトなバリエーションを導出する。
論文 参考訳(メタデータ) (2024-12-30T05:30:26Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。