論文の概要: P-4DGS: Predictive 4D Gaussian Splatting with 90$\times$ Compression
- arxiv url: http://arxiv.org/abs/2510.10030v1
- Date: Sat, 11 Oct 2025 05:19:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.745008
- Title: P-4DGS: Predictive 4D Gaussian Splatting with 90$\times$ Compression
- Title(参考訳): P-4DGS:90$\times$圧縮を備えた予測的な4Dガウシアンスプラッティング
- Authors: Henan Wang, Hanxin Zhu, Xinliang Gong, Tianyu He, Xin Li, Zhibo Chen,
- Abstract要約: 3D Gaussian Splatting (3DGS) は、シーン表現の忠実さとリアルタイムレンダリング性能が優れており、注目されている。
有望な結果を得たにもかかわらず、既存のアルゴリズムのほとんどは、動的シーンに固有の時間的および空間的冗長性を見落としている。
コンパクトな4次元シーンモデリングのための新しい動的3DGS表現であるP-4DGSを提案する。
- 参考スコア(独自算出の注目度): 26.130131551764077
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) has garnered significant attention due to its superior scene representation fidelity and real-time rendering performance, especially for dynamic 3D scene reconstruction (\textit{i.e.}, 4D reconstruction). However, despite achieving promising results, most existing algorithms overlook the substantial temporal and spatial redundancies inherent in dynamic scenes, leading to prohibitive memory consumption. To address this, we propose P-4DGS, a novel dynamic 3DGS representation for compact 4D scene modeling. Inspired by intra- and inter-frame prediction techniques commonly used in video compression, we first design a 3D anchor point-based spatial-temporal prediction module to fully exploit the spatial-temporal correlations across different 3D Gaussian primitives. Subsequently, we employ an adaptive quantization strategy combined with context-based entropy coding to further reduce the size of the 3D anchor points, thereby achieving enhanced compression efficiency. To evaluate the rate-distortion performance of our proposed P-4DGS in comparison with other dynamic 3DGS representations, we conduct extensive experiments on both synthetic and real-world datasets. Experimental results demonstrate that our approach achieves state-of-the-art reconstruction quality and the fastest rendering speed, with a remarkably low storage footprint (around \textbf{1MB} on average), achieving up to \textbf{40$\times$} and \textbf{90$\times$} compression on synthetic and real-world scenes, respectively.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS) は、特に動的3Dシーン再構成(\textit{i.e.} 4D再構成)において、シーン表現の忠実さとリアルタイムレンダリング性能が優れており、注目されている。
しかし、有望な結果を得たにもかかわらず、既存のアルゴリズムのほとんどは、動的シーンに固有の時間的および空間的冗長性を見落とし、メモリ消費を禁止している。
そこで本研究では,コンパクトな4次元シーンモデリングのための動的3DGS表現であるP-4DGSを提案する。
ビデオ圧縮で一般的に使用されるフレーム内およびフレーム間予測技術に着想を得て,まず3次元ガウスプリミティブ間の空間時間相関をフル活用する3次元アンカー点に基づく時空間予測モジュールを設計する。
その後,適応量子化戦略とコンテキストベースのエントロピー符号化を併用して,3次元アンカー点のサイズをさらに小さくし,圧縮効率を向上する。
提案したP-4DGSの速度歪み特性を,他の動的3DGS表現と比較して評価するために,合成データセットと実世界のデータセットの両方について広範な実験を行った。
実験結果から,本手法は,合成シーンと実世界のシーンにおいて,ストレージフットプリントが著しく低く(平均では \textbf{1MB} 前後),最大で \textbf{40$\times$} と \textbf{90$\times$} の圧縮を実現していることがわかった。
関連論文リスト
- EVolSplat4D: Efficient Volume-based Gaussian Splatting for 4D Urban Scene Synthesis [43.898895514609286]
EvolSplat4Dは、ボリュームベースとピクセルベースのガウス予測を統合することで、既存のピクセル単位のパラダイムを超えたフィードフォワードフレームワークである。
EvolSplat4Dは静的環境と動的環境の両方を高い精度と一貫性で再構成し、シーンごとの最適化と最先端のフィードフォワードベースラインの両方に優れることを示す。
論文 参考訳(メタデータ) (2026-01-22T13:39:29Z) - SUCCESS-GS: Survey of Compactness and Compression for Efficient Static and Dynamic Gaussian Splatting [12.927009543427259]
3D Gaussian Splatting (3DGS) は、リアルタイム、高忠実な3D再構成と新しいビュー合成を可能にする強力な明示的表現として登場した。
しかし、その実用性は、数百万のガウスの記憶とレンダリングに必要な膨大なメモリと計算要求によって妨げられている。
本調査は, 効率的な3次元および4次元ガウススプラッティング技術について概観する。
論文 参考訳(メタデータ) (2025-12-08T06:15:59Z) - TED-4DGS: Temporally Activated and Embedding-based Deformation for 4DGS Compression [14.026420167067117]
速度歪み最適化4DGS圧縮のための時間的活性化および埋め込みに基づく変形方式であるTED-4DGSを提案する。
提案手法は,複数の実世界のデータセット上での最先端の速度歪み性能を実現する。
論文 参考訳(メタデータ) (2025-12-05T05:46:35Z) - Diff4Splat: Controllable 4D Scene Generation with Latent Dynamic Reconstruction Models [79.06910348413861]
Diff4Splatは、単一の画像から制御可能で明示的な4Dシーンを合成するフィードフォワード方式である。
単一の入力画像、カメラ軌跡、オプションのテキストプロンプトが与えられた場合、Diff4Splatは外見、幾何学、動きを符号化する変形可能な3Dガウス場を直接予測する。
論文 参考訳(メタデータ) (2025-11-01T11:16:25Z) - Speedy Deformable 3D Gaussian Splatting: Fast Rendering and Compression of Dynamic Scenes [57.69608119350651]
動的シーンへの3次元ガウススティング(3DGS)の最近の拡張は、ニューラルネットワークを用いて各ガウスの時間変化変形を予測することによって、高品質な新規ビュー合成を実現する。
しかしながら、ガウス毎のニューラルネットワークを各フレームで実行することは、レンダリング速度を制限し、メモリと計算要求を増大させる、重大なボトルネックとなる。
動的3DGSおよび4DGS表現のレンダリング速度を2つの相補的手法により低減し,高速化する汎用パイプラインであるSpeedy Deformable 3D Gaussian Splatting(SpeeDe3DGS)を提案する。
論文 参考訳(メタデータ) (2025-06-09T16:30:48Z) - Disentangled 4D Gaussian Splatting: Towards Faster and More Efficient Dynamic Scene Rendering [12.27734287104036]
2次元画像から動的シーンを合成する新アンタングルビュー合成(NVS)は重要な課題である。
時間的および空間的変形を両立させる新しい表現・レンダリング手法であるDisentangled 4D Gaussianting(Disentangled4DGS)を導入する。
提案手法は,3090 GPU上での1352times1014$の解像度で,343FPSの平均レンダリング速度を実現している。
論文 参考訳(メタデータ) (2025-03-28T05:46:02Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - 4DGC: Rate-Aware 4D Gaussian Compression for Efficient Streamable Free-Viewpoint Video [56.04182926886754]
3D Gaussian Splatting (3DGS)は、フォトリアリスティック・フリー・ビューポイント・ビデオ(FVV)体験を可能にする大きな可能性を秘めている。
既存の方法は、動的3DGS表現と圧縮を別々に扱うのが一般的である。
本稿では,FVVのRD性能を向上しつつ,ストレージサイズを大幅に削減するレート対応4Dガウス圧縮フレームワークである4DGCを提案する。
論文 参考訳(メタデータ) (2025-03-24T08:05:27Z) - Light4GS: Lightweight Compact 4D Gaussian Splatting Generation via Context Model [21.375070073632944]
3次元ビュー合成技術(3DGS)は,新規・新規コンテンツのための効率的な高忠実度パラダイムとして登場している。
3DGSを動的コンテンツに適用するために、変形可能な3DGSは、時間的に変形可能なプリミティブと学習可能な遅延埋め込みを組み込んで複雑な動きをキャプチャする。
優れた性能にもかかわらず、高次元の埋め込みと大量のプリミティブは、かなりのストレージ要件をもたらす。
論文 参考訳(メタデータ) (2025-03-18T06:28:13Z) - Locality-aware Gaussian Compression for Fast and High-quality Rendering [37.16956462469969]
局所性を考慮した3Dガウススティング(3DGS)フレームワークであるLocoGSを紹介し,3Dガウスアンの空間コヒーレンスを利用してシーンのコンパクトなモデリングを行う。
まず,3次元ガウス属性の局所的コヒーレンスを解析し,局所的コヒーレントなガウス属性を効果的に符号化する3次元ガウス表現を提案する。
論文 参考訳(メタデータ) (2025-01-10T07:19:41Z) - 4D Gaussian Splatting: Modeling Dynamic Scenes with Native 4D Primitives [115.67081491747943]
動的3Dシーン表現と新しいビュー合成はAR/VRおよびメタバースアプリケーションの実現に不可欠である。
我々は,その基礎となる4次元体積を近似として,時間変化の異なる3次元シーンの再構成を再構成する。
ストレージのボトルネックに対処するため、メモリフットプリントを効果的に削減するいくつかのコンパクトなバリエーションを導出する。
論文 参考訳(メタデータ) (2024-12-30T05:30:26Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。