論文の概要: Compression of 3D Gaussian Splatting with Optimized Feature Planes and Standard Video Codecs
- arxiv url: http://arxiv.org/abs/2501.03399v1
- Date: Mon, 06 Jan 2025 21:37:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:46:54.560909
- Title: Compression of 3D Gaussian Splatting with Optimized Feature Planes and Standard Video Codecs
- Title(参考訳): 最適化された特徴平面と標準ビデオコーデックを用いた3次元ガウス平滑化の圧縮
- Authors: Soonbin Lee, Fangwen Shu, Yago Sanchez, Thomas Schierl, Cornelius Hellge,
- Abstract要約: 3D Splattingは3Dシーン表現の認識手法であり、高いレンダリング品質とスピードで知られている。
本稿では,コンパクト表現を用いてストレージオーバーヘッドを大幅に削減する効率的な圧縮手法を提案する。
実験により,本手法は,高レンダリング品質を維持しつつ,データ圧縮性において既存の手法よりも優れることを示した。
- 参考スコア(独自算出の注目度): 5.583906047971048
- License:
- Abstract: 3D Gaussian Splatting is a recognized method for 3D scene representation, known for its high rendering quality and speed. However, its substantial data requirements present challenges for practical applications. In this paper, we introduce an efficient compression technique that significantly reduces storage overhead by using compact representation. We propose a unified architecture that combines point cloud data and feature planes through a progressive tri-plane structure. Our method utilizes 2D feature planes, enabling continuous spatial representation. To further optimize these representations, we incorporate entropy modeling in the frequency domain, specifically designed for standard video codecs. We also propose channel-wise bit allocation to achieve a better trade-off between bitrate consumption and feature plane representation. Consequently, our model effectively leverages spatial correlations within the feature planes to enhance rate-distortion performance using standard, non-differentiable video codecs. Experimental results demonstrate that our method outperforms existing methods in data compactness while maintaining high rendering quality. Our project page is available at https://fraunhoferhhi.github.io/CodecGS
- Abstract(参考訳): 3D Gaussian Splattingは3Dシーン表現の認識手法であり、高いレンダリング品質と速度で知られている。
しかし、その実質的なデータ要件は、実用上の課題を提示する。
本稿では,コンパクト表現を用いてストレージオーバーヘッドを大幅に削減する効率的な圧縮手法を提案する。
本稿では,点雲データと特徴平面をプログレッシブ三面構造で結合した統一アーキテクチャを提案する。
提案手法は2次元特徴面を用いて連続空間表現を実現する。
これらの表現をより最適化するために、標準ビデオコーデック用に特別に設計された周波数領域にエントロピーモデリングを組み込む。
また、ビットレート消費と特徴平面表現とのトレードオフを改善するために、チャネルワイズビット割り当てを提案する。
その結果,本モデルは特徴面内の空間相関を有効活用し,標準の非微分可能ビデオコーデックを用いた速度歪み性能を向上させる。
実験により,本手法は,高レンダリング品質を維持しつつ,データ圧縮性において既存の手法よりも優れることを示した。
私たちのプロジェクトページはhttps://fraunhoferhhi.github.io/CodecGSで公開されています。
関連論文リスト
- Locality-aware Gaussian Compression for Fast and High-quality Rendering [37.16956462469969]
局所性を考慮した3Dガウススティング(3DGS)フレームワークであるLocoGSを紹介し,3Dガウスアンの空間コヒーレンスを利用してシーンのコンパクトなモデリングを行う。
まず,3次元ガウス属性の局所的コヒーレンスを解析し,局所的コヒーレントなガウス属性を効果的に符号化する3次元ガウス表現を提案する。
論文 参考訳(メタデータ) (2025-01-10T07:19:41Z) - Temporally Compressed 3D Gaussian Splatting for Dynamic Scenes [46.64784407920817]
時間圧縮3Dガウススティング(TC3DGS)は動的3Dガウス表現を圧縮する新しい技術である。
複数のデータセットにまたがる実験により、T3DGSは最大67$times$圧縮を実現し、視覚的品質の劣化を最小限に抑えることができた。
論文 参考訳(メタデータ) (2024-12-07T17:03:09Z) - SplatLoc: 3D Gaussian Splatting-based Visual Localization for Augmented Reality [50.179377002092416]
より少ないパラメータで高品質なレンダリングが可能な効率的なビジュアルローカライズ手法を提案する。
提案手法は,最先端の暗黙的視覚的ローカライゼーションアプローチに対して,より優れた,あるいは同等なレンダリングとローカライゼーション性能を実現する。
論文 参考訳(メタデータ) (2024-09-21T08:46:16Z) - Compact 3D Gaussian Splatting for Static and Dynamic Radiance Fields [13.729716867839509]
ハイパフォーマンスを維持しつつガウスの数を著しく削減する学習可能なマスク戦略を提案する。
さらに、格子型ニューラルネットワークを用いて、ビュー依存色をコンパクトかつ効果的に表現することを提案する。
我々の研究は、3Dシーン表現のための包括的なフレームワークを提供し、ハイパフォーマンス、高速トレーニング、コンパクト性、リアルタイムレンダリングを実現しています。
論文 参考訳(メタデータ) (2024-08-07T14:56:34Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Triplane Meets Gaussian Splatting: Fast and Generalizable Single-View 3D
Reconstruction with Transformers [37.14235383028582]
本稿では,フィードフォワード推論を用いて,単一画像から3次元モデルを効率よく生成する,一視点再構成のための新しい手法を提案する。
提案手法では,2つのトランスフォーマーネットワーク,すなわちポイントデコーダとトリプレーンデコーダを用いて,ハイブリッドトリプレーン・ガウス中間表現を用いて3次元オブジェクトを再構成する。
論文 参考訳(メタデータ) (2023-12-14T17:18:34Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z) - A Real-time Action Representation with Temporal Encoding and Deep
Compression [115.3739774920845]
動作表現のための時間畳み込み3Dネットワーク(T-C3D)と呼ばれる新しいリアルタイム畳み込みアーキテクチャを提案する。
T-C3Dは、高プロセス速度を得ながら、階層的な多粒度でビデオアクション表現を学習する。
提案手法は,5MB未満のストレージモデルを用いて,提案手法の精度5.4%,推論速度2倍の高速化を実現した。
論文 参考訳(メタデータ) (2020-06-17T06:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。