論文の概要: TinySplat: Feedforward Approach for Generating Compact 3D Scene Representation
- arxiv url: http://arxiv.org/abs/2506.09479v1
- Date: Wed, 11 Jun 2025 07:47:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.717177
- Title: TinySplat: Feedforward Approach for Generating Compact 3D Scene Representation
- Title(参考訳): TinySplat: コンパクトな3次元シーン表現生成のためのフィードフォワードアプローチ
- Authors: Zetian Song, Jiaye Fu, Jiaqi Zhang, Xiaohan Lu, Chuanmin Jia, Siwei Ma, Wen Gao,
- Abstract要約: TinySplatは、コンパクトな3Dシーン表現を生成するための完全なフィードフォワードアプローチである。
TinySplatは標準フィードフォワード3DGS法に基づいており、トレーニング不要の圧縮フレームワークを統合している。
私たちのフレームワークはエンコーディング時間の25%とデコーディング時間の1%しか必要としません。
- 参考スコア(独自算出の注目度): 38.50388562890992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent development of feedforward 3D Gaussian Splatting (3DGS) presents a new paradigm to reconstruct 3D scenes. Using neural networks trained on large-scale multi-view datasets, it can directly infer 3DGS representations from sparse input views. Although the feedforward approach achieves high reconstruction speed, it still suffers from the substantial storage cost of 3D Gaussians. Existing 3DGS compression methods relying on scene-wise optimization are not applicable due to architectural incompatibilities. To overcome this limitation, we propose TinySplat, a complete feedforward approach for generating compact 3D scene representations. Built upon standard feedforward 3DGS methods, TinySplat integrates a training-free compression framework that systematically eliminates key sources of redundancy. Specifically, we introduce View-Projection Transformation (VPT) to reduce geometric redundancy by projecting geometric parameters into a more compact space. We further present Visibility-Aware Basis Reduction (VABR), which mitigates perceptual redundancy by aligning feature energy along dominant viewing directions via basis transformation. Lastly, spatial redundancy is addressed through an off-the-shelf video codec. Comprehensive experimental results on multiple benchmark datasets demonstrate that TinySplat achieves over 100x compression for 3D Gaussian data generated by feedforward methods. Compared to the state-of-the-art compression approach, we achieve comparable quality with only 6% of the storage size. Meanwhile, our compression framework requires only 25% of the encoding time and 1% of the decoding time.
- Abstract(参考訳): 近年のフィードフォワード3Dガウススティング(3DGS)は,3Dシーンを再構築するための新しいパラダイムを提示している。
大規模なマルチビューデータセットでトレーニングされたニューラルネットワークを使用して、スパース入力ビューから直接3DGS表現を推測することができる。
フィードフォワードアプローチは高い再構築速度を達成するが、3Dガウスの保存コストに悩まされている。
既存の3DGS圧縮手法は、アーキテクチャ上の不整合性のため、シーンワイズ最適化には適用できない。
この制限を克服するために、コンパクトな3Dシーン表現を生成するための完全なフィードフォワードアプローチであるTinySplatを提案する。
TinySplatは、標準フィードフォワード3DGS法に基づいて、トレーニング不要な圧縮フレームワークを統合し、主要な冗長性のソースを体系的に排除する。
具体的には、幾何学的パラメータをよりコンパクトな空間に投影することにより、幾何学的冗長性を低減するために、ビュープロジェクション変換(VPT)を導入する。
さらに,基本変換により特徴エネルギーを支配的な視線方向に沿って整列させることにより,知覚的冗長性を緩和する可視性認知基底減少法(VABR)を提案する。
最後に、空間冗長性は、市販のビデオコーデックを介して対処される。
複数のベンチマークデータセットに対する総合的な実験結果から、TinySplatはフィードフォワード法により生成された3Dガウスデータに対して100倍以上の圧縮を達成することが示された。
最先端の圧縮手法と比較すると,ストレージサイズは6%に過ぎず,同等の品質を実現しています。
一方、圧縮フレームワークは符号化時間の25%と復号時間の1%しか必要としない。
関連論文リスト
- CompGS++: Compressed Gaussian Splatting for Static and Dynamic Scene Representation [60.712165339762116]
CompGS++はコンパクトガウスプリミティブを活用して正確な3Dモデリングを実現する新しいフレームワークである。
私たちの設計は、プリミティブ間の冗長性をなくすという原則に基づいている。
私たちの実装は、さらなる研究を促進するためにGitHubで公開されます。
論文 参考訳(メタデータ) (2025-04-17T15:33:01Z) - A Hierarchical Compression Technique for 3D Gaussian Splatting Compression [23.785131033155924]
3D Gaussian Splatting (GS) は、新規なビュー合成において優れたレンダリング品質と生成速度を示す。
現在の3D GS圧縮研究は主によりコンパクトなシーン表現の開発に焦点を当てている。
本稿では,このギャップに対処する階層型GS圧縮(HGSC)手法を提案する。
論文 参考訳(メタデータ) (2024-11-11T13:34:24Z) - Fast Feedforward 3D Gaussian Splatting Compression [55.149325473447384]
3D Gaussian Splatting (FCGS) は、1つのフィードフォワードパスで3DGS表現を高速に圧縮できる最適化フリーモデルである。
FCGSは圧縮比を20倍以上に向上し、高精細度を維持しながら、ほとんどのシーン毎のSOTA最適化手法を上回ります。
論文 参考訳(メタデータ) (2024-10-10T15:13:08Z) - Compact 3D Gaussian Splatting for Static and Dynamic Radiance Fields [13.729716867839509]
ハイパフォーマンスを維持しつつガウスの数を著しく削減する学習可能なマスク戦略を提案する。
さらに、格子型ニューラルネットワークを用いて、ビュー依存色をコンパクトかつ効果的に表現することを提案する。
我々の研究は、3Dシーン表現のための包括的なフレームワークを提供し、ハイパフォーマンス、高速トレーニング、コンパクト性、リアルタイムレンダリングを実現しています。
論文 参考訳(メタデータ) (2024-08-07T14:56:34Z) - 3DGS.zip: A survey on 3D Gaussian Splatting Compression Methods [10.122120872952296]
3次元ガウス散乱(3DGS)は実時間放射場レンダリングの最先端技術として登場している。
レンダリング速度と画像の忠実さの利点にもかかわらず、3DGSはその大きなストレージとメモリ要求によって制限されている。
本調査では3DGSをより効率的にするために開発された圧縮・圧縮技術について詳細に検討する。
論文 参考訳(メタデータ) (2024-06-17T11:43:38Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。