論文の概要: Distilled-3DGS:Distilled 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2508.14037v1
- Date: Tue, 19 Aug 2025 17:59:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:32.04083
- Title: Distilled-3DGS:Distilled 3D Gaussian Splatting
- Title(参考訳): 蒸留3DGS:蒸留3Dガウスめっき
- Authors: Lintao Xiang, Xinkai Chen, Jianhuang Lai, Guangcong Wang,
- Abstract要約: 3DGSのための最初の知識蒸留フレームワークを提案する。
バニラ3DGS、ノイズ強化版、ドロップアウト正規化版など様々な教師モデルが特徴である。
最先端の手法と比較して、レンダリング品質とストレージ効率の両面で有望なレンダリング結果を達成する。
- 参考スコア(独自算出の注目度): 49.098181805161275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) has exhibited remarkable efficacy in novel view synthesis (NVS). However, it suffers from a significant drawback: achieving high-fidelity rendering typically necessitates a large number of 3D Gaussians, resulting in substantial memory consumption and storage requirements. To address this challenge, we propose the first knowledge distillation framework for 3DGS, featuring various teacher models, including vanilla 3DGS, noise-augmented variants, and dropout-regularized versions. The outputs of these teachers are aggregated to guide the optimization of a lightweight student model. To distill the hidden geometric structure, we propose a structural similarity loss to boost the consistency of spatial geometric distributions between the student and teacher model. Through comprehensive quantitative and qualitative evaluations across diverse datasets, the proposed Distilled-3DGS, a simple yet effective framework without bells and whistles, achieves promising rendering results in both rendering quality and storage efficiency compared to state-of-the-art methods. Project page: https://distilled3dgs.github.io . Code: https://github.com/lt-xiang/Distilled-3DGS .
- Abstract(参考訳): 3D Gaussian Splatting (3DGS) は新規なビュー合成(NVS)において顕著な効果を示した。
しかし、これは大きな欠点に悩まされる: 高忠実なレンダリングを実現するには、通常、大量の3Dガウスを必要とするため、かなりのメモリ消費とストレージ要求が生じる。
この課題に対処するために,バニラ3DGS,ノイズ付加型,ドロップアウト正規化版など,様々な教師モデルを備えた3DGSのための最初の知識蒸留フレームワークを提案する。
これらの教師のアウトプットは、軽量な学生モデルの最適化を導くために集約される。
隠れた幾何学的構造を蒸留するために,教師モデルと生徒間の空間的幾何学的分布の整合性を高める構造的類似性損失を提案する。
多様なデータセットにわたる総合的な定量的および定性的な評価を通じて、ベルやホイッスルを持たないシンプルで効果的なフレームワークであるDistilled-3DGSは、最先端の手法と比較してレンダリング品質とストレージ効率の両方において有望なレンダリング結果を達成する。
プロジェクトページ: https://distilled3dgs.github.io 。
コード:https://github.com/lt-xiang/Distilled-3DGS
関連論文リスト
- FlexGS: Train Once, Deploy Everywhere with Many-in-One Flexible 3D Gaussian Splatting [57.97160965244424]
3Dガウススプラッティング(3DGS)は、3Dシーン表現や新しいビュー合成に様々な応用を可能にしている。
従来のアプローチでは、重要でないガウス人を刈り取ることに重点を置いており、3DGSを効果的に圧縮している。
本稿では3DGSの弾性推論手法を提案する。
論文 参考訳(メタデータ) (2025-06-04T17:17:57Z) - 3D Student Splatting and Scooping [10.096129909852795]
3D Gaussian Splatting (3DGS)は、新しいビュー合成のための新しいフレームワークを提供し、ニューラルレンダリングと関連するアプリケーションに関する新しい研究の波をスパイクさせた。
フレキシブルな学生のt分布からなる新しい混合モデルを提案する。
より良い表現力を提供する場合、SSSは学習に新たな課題をもたらす。
論文 参考訳(メタデータ) (2025-03-13T08:20:54Z) - Does 3D Gaussian Splatting Need Accurate Volumetric Rendering? [8.421214057144569]
3D Gaussian Splatting (3DGS) は撮影シーンの3D表現を学習するための重要な参照手法である。
3DGSに先立つNeRFは、レンダリングのための原則的なレイマーチングアプローチに基づいている。
元の3DGSソリューションで用いられる様々な近似と仮定を詳細に分析する。
論文 参考訳(メタデータ) (2025-02-26T17:11:26Z) - ResGS: Residual Densification of 3D Gaussian for Efficient Detail Recovery [11.706262924395768]
そこで我々は, 残留分断法を新たに導入し, 残留分断法としてガウシアンを付加した。
我々のアプローチは、詳細を適応的に検索し、欠落した幾何学を補完することができる。
論文 参考訳(メタデータ) (2024-12-10T13:19:27Z) - A Lesson in Splats: Teacher-Guided Diffusion for 3D Gaussian Splats Generation with 2D Supervision [65.33043028101471]
本稿では,2次元監視のみを用いた3次元画像調和拡散モデルの学習フレームワークを提案する。
既存の3D生成モデルは、大規模な3Dデータセットが不足しているため、完全に3Dの監視に依存している。
論文 参考訳(メタデータ) (2024-12-01T00:29:57Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。