論文の概要: MaskGaussian: Adaptive 3D Gaussian Representation from Probabilistic Masks
- arxiv url: http://arxiv.org/abs/2412.20522v1
- Date: Sun, 29 Dec 2024 17:12:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:06:17.023673
- Title: MaskGaussian: Adaptive 3D Gaussian Representation from Probabilistic Masks
- Title(参考訳): MaskGaussian:確率的マスクからの適応的な3Dガウス表現
- Authors: Yifei Liu, Zhihang Zhong, Yifan Zhan, Sheng Xu, Xiao Sun,
- Abstract要約: 3D Gaussian Splattingは、新しいビュー合成とリアルタイムレンダリングにおいて顕著な性能を示した。
しかし、数百万ガウスの使用によるメモリ消費の増大は、その実用性を制限している。
ガウスを恒久的に除去するのではなく確率的実体としてモデル化するMaskGaussianを提案する。
- 参考スコア(独自算出の注目度): 10.860209186365344
- License:
- Abstract: While 3D Gaussian Splatting (3DGS) has demonstrated remarkable performance in novel view synthesis and real-time rendering, the high memory consumption due to the use of millions of Gaussians limits its practicality. To mitigate this issue, improvements have been made by pruning unnecessary Gaussians, either through a hand-crafted criterion or by using learned masks. However, these methods deterministically remove Gaussians based on a snapshot of the pruning moment, leading to sub-optimized reconstruction performance from a long-term perspective. To address this issue, we introduce MaskGaussian, which models Gaussians as probabilistic entities rather than permanently removing them, and utilize them according to their probability of existence. To achieve this, we propose a masked-rasterization technique that enables unused yet probabilistically existing Gaussians to receive gradients, allowing for dynamic assessment of their contribution to the evolving scene and adjustment of their probability of existence. Hence, the importance of Gaussians iteratively changes and the pruned Gaussians are selected diversely. Extensive experiments demonstrate the superiority of the proposed method in achieving better rendering quality with fewer Gaussians than previous pruning methods, pruning over 60% of Gaussians on average with only a 0.02 PSNR decline. Our code can be found at: https://github.com/kaikai23/MaskGaussian
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、新しいビュー合成とリアルタイムレンダリングにおいて顕著な性能を示したが、数百万ガウスの使用によるメモリ消費は、その実用性を制限している。
この問題を軽減するため、手作りの基準や学習マスクを用いて不要なガウシアンを刈り取ることで改善がなされている。
しかし,これらの手法はプルーニングモーメントのスナップショットに基づいてガウシアンを決定的に除去し,長期的視点からサブ最適化された復元性能を実現する。
この問題に対処するために、我々はガウスを恒久的に除去するのではなく確率的実体としてモデル化し、その存在確率に応じてそれらを利用するMaskGaussianを紹介した。
そこで本稿では,未使用かつ確率的に既存のガウス人が勾配を受けることができるマスク付きラスタライズ手法を提案する。
したがって、ガウス人の重要性は反復的に変化し、刈り取られたガウス人は様々に選択される。
広汎な実験により,従来の刈り込み法よりもガウスのレンダリング品質が向上し,ガウスの60%以上を平均0.02PSNR低下で刈り取ることができた。
私たちのコードは、https://github.com/kai23/MaskGaussian.comで参照できます。
関連論文リスト
- GaussianPainter: Painting Point Cloud into 3D Gaussians with Normal Guidance [43.97159590077809]
本稿では,3次元ガウス空間に点雲を描画する最初の手法であるガウス空間について紹介する。
本手法は3次元ガウススプラッティングのパラメータ空間に固有の非特異性問題に対処する。
論文 参考訳(メタデータ) (2024-12-23T16:45:37Z) - Pushing Rendering Boundaries: Hard Gaussian Splatting [72.28941128988292]
3D Gaussian Splatting (3DGS) は,NVS(Noven View Synthesis) をリアルタイムなレンダリング方式で実現した。
我々はHGSと呼ばれるハードガウシアンスプラッティングを提案し、これは多視点的な位置勾配とレンダリング誤差を考慮し、ハードガウシアンを成長させる。
本手法は,リアルタイムの効率を保ちながら,最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2024-12-06T07:42:47Z) - GaussianFormer-2: Probabilistic Gaussian Superposition for Efficient 3D Occupancy Prediction [55.60972844777044]
3Dセマンティック占有予測は、堅牢な視覚中心の自律運転において重要な課題である。
既存のほとんどの手法は、密度の高いグリッドベースのシーン表現を利用しており、運転シーンの空間的空間性を見渡している。
本稿では,各ガウス分布をその周辺領域の確率分布として解釈する確率論的ガウス重ね合わせモデルを提案する。
論文 参考訳(メタデータ) (2024-12-05T17:59:58Z) - PixelGaussian: Generalizable 3D Gaussian Reconstruction from Arbitrary Views [116.10577967146762]
PixelGaussianは、任意の視点から一般化可能な3Dガウス再構成を学習するための効率的なフレームワークである。
提案手法は,様々な視点によく一般化した最先端性能を実現する。
論文 参考訳(メタデータ) (2024-10-24T17:59:58Z) - Dynamic Gaussian Marbles for Novel View Synthesis of Casual Monocular Videos [58.22272760132996]
既存の4次元ガウス法は単分子配置が制約されていないため、この設定で劇的に失敗することを示す。
単分子配置の難易度を目標とした3つのコア修正からなる動的ガウス大理石を提案する。
Nvidia Dynamic ScenesデータセットとDyCheck iPhoneデータセットを評価し,Gaussian Marblesが他のGaussianベースラインを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-26T19:37:07Z) - GaussianForest: Hierarchical-Hybrid 3D Gaussian Splatting for Compressed Scene Modeling [40.743135560583816]
本稿では,ハイブリッド3Dガウスの森として景観を階層的に表現するガウス・フォレスト・モデリング・フレームワークを紹介する。
実験により、ガウス・フォレストは同等の速度と品質を維持するだけでなく、圧縮速度が10倍を超えることが示されている。
論文 参考訳(メタデータ) (2024-06-13T02:41:11Z) - RTG-SLAM: Real-time 3D Reconstruction at Scale using Gaussian Splatting [51.51310922527121]
ガウススプラッティングを用いた大規模環境のためのRGBDカメラを用いたリアルタイム3D再構成システムを提案する。
それぞれのガウス語は不透明かほぼ透明で、不透明なものは表面色と支配的な色に、透明なものは残留色に適合する。
様々な大きなシーンをリアルタイムに再現し、新しいビュー合成とカメラトラッキングの精度のリアリズムにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-30T16:54:59Z) - 3D Gaussian Splatting as Markov Chain Monte Carlo [30.04096439325343]
3D Gaussian Splattingは最近、ニューラルレンダリングで人気になっている。
我々は3次元ガウスの集合を、基礎となる確率分布から引き出されたランダムなサンプルとして再考する。
未使用ガウスの除去を促進する正則化器を導入する。
論文 参考訳(メタデータ) (2024-04-15T09:01:47Z) - GAvatar: Animatable 3D Gaussian Avatars with Implicit Mesh Learning [60.33970027554299]
ガウススプラッティングは、明示的(メッシュ)と暗黙的(NeRF)の両方の3D表現の利点を利用する強力な3D表現として登場した。
本稿では,ガウススプラッティングを利用してテキスト記述から現実的なアニマタブルなアバターを生成する。
提案手法であるGAvatarは,テキストプロンプトのみを用いて,多様なアニマタブルアバターを大規模に生成する。
論文 参考訳(メタデータ) (2023-12-18T18:59:12Z) - SuGaR: Surface-Aligned Gaussian Splatting for Efficient 3D Mesh
Reconstruction and High-Quality Mesh Rendering [24.91019554830571]
本稿では,3次元ガウス格子から高精度かつ極めて高速なメッシュ抽出を可能にする手法を提案する。
しかし、これらのガウス人は最適化後に非組織化される傾向があるため、何百万もの小さな3Dガウスからメッシュを抽出することは困難である。
論文 参考訳(メタデータ) (2023-11-21T18:38:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。