論文の概要: 3DGS-to-PC: Convert a 3D Gaussian Splatting Scene into a Dense Point Cloud or Mesh
- arxiv url: http://arxiv.org/abs/2501.07478v1
- Date: Mon, 13 Jan 2025 16:52:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:22:26.128676
- Title: 3DGS-to-PC: Convert a 3D Gaussian Splatting Scene into a Dense Point Cloud or Mesh
- Title(参考訳): 3DGSからPCへ:3DガウスのスプレイティングシーンをDense Point CloudやMeshに変換する
- Authors: Lewis A G Stuart, Michael P Pound,
- Abstract要約: 3DGS-to-PCは、3DGSのシーンを高密度で高精度な点雲に変換することができる。
このパッケージは非常にカスタマイズ可能で、既存の3DGSパイプラインに簡単に統合できる。
- 参考スコア(独自算出の注目度): 0.552480439325792
- License:
- Abstract: 3D Gaussian Splatting (3DGS) excels at producing highly detailed 3D reconstructions, but these scenes often require specialised renderers for effective visualisation. In contrast, point clouds are a widely used 3D representation and are compatible with most popular 3D processing software, yet converting 3DGS scenes into point clouds is a complex challenge. In this work we introduce 3DGS-to-PC, a flexible and highly customisable framework that is capable of transforming 3DGS scenes into dense, high-accuracy point clouds. We sample points probabilistically from each Gaussian as a 3D density function. We additionally threshold new points using the Mahalanobis distance to the Gaussian centre, preventing extreme outliers. The result is a point cloud that closely represents the shape encoded into the 3D Gaussian scene. Individual Gaussians use spherical harmonics to adapt colours depending on view, and each point may contribute only subtle colour hints to the resulting rendered scene. To avoid spurious or incorrect colours that do not fit with the final point cloud, we recalculate Gaussian colours via a customised image rendering approach, assigning each Gaussian the colour of the pixel to which it contributes most across all views. 3DGS-to-PC also supports mesh generation through Poisson Surface Reconstruction, applied to points sampled from predicted surface Gaussians. This allows coloured meshes to be generated from 3DGS scenes without the need for re-training. This package is highly customisable and capability of simple integration into existing 3DGS pipelines. 3DGS-to-PC provides a powerful tool for converting 3DGS data into point cloud and surface-based formats.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS) は高精細な3D再構成を実現するのに優れていますが、これらのシーンは効果的に視覚化するために特別なレンダラーを必要とします。
対照的に、ポイントクラウドは広く使われている3D表現であり、最も人気のある3D処理ソフトウェアと互換性があるが、3DGSシーンをポイントクラウドに変換することは複雑な課題である。
この3DGS-to-PCは柔軟でカスタマイズ可能なフレームワークで、3DGSシーンを高精度で高密度の点雲に変換することができる。
3次元密度関数として各ガウス関数から確率的に点をサンプリングする。
さらに、マハラノビスからガウス中心までの距離を使って新しい点を閾値付けし、極端な外れを防ぎます。
その結果、点雲は3Dガウスのシーンに符号化された形状をよく表している。
個々のガウス人は、視野に応じて色を適応するために球面調和を使い、それぞれの点が描画されたシーンに微妙な色のヒントを与える。
最終点の雲に収まらないスプリアス色や不正確な色を避けるため、カスタマイズされた画像レンダリングアプローチによりガウス色を再計算し、各ガウス色を全ビューに最も寄与するピクセルの色に割り当てる。
3DGS-to-PCは、予測表面ガウスからサンプリングされた点に適用されたPoisson Surface Reconstructionによるメッシュ生成もサポートする。
これにより、再トレーニングを必要とせずに、3DGSシーンからカラーメッシュを生成することができる。
このパッケージは非常にカスタマイズ可能で、既存の3DGSパイプラインに簡単に統合できる。
3DGS-to-PCは、3DGSデータをポイントクラウドとサーフェスベースのフォーマットに変換する強力なツールを提供する。
関連論文リスト
- 3D Convex Splatting: Radiance Field Rendering with 3D Smooth Convexes [87.01284850604495]
多視点画像から幾何学的に有意な放射場をモデル化するためのプリミティブとして3次元滑らかな凸を利用した3次元凸法(3DCS)を提案する。
3DCSは、MipNeizer, Tanks and Temples, Deep Blendingなどのベンチマークで、3DGSよりも優れたパフォーマンスを実現している。
本結果は,高品質なシーン再構築のための新しい標準となる3Dコンベクシングの可能性を強調した。
論文 参考訳(メタデータ) (2024-11-22T14:31:39Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - Bridging 3D Gaussian and Mesh for Freeview Video Rendering [57.21847030980905]
GauMeshはダイナミックシーンのモデリングとレンダリングのために3D GaussianとMeshをブリッジする。
提案手法は, 動的シーンの異なる部分を表現するために, プリミティブの適切なタイプに適応することを示す。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - SAGD: Boundary-Enhanced Segment Anything in 3D Gaussian via Gaussian Decomposition [66.80822249039235]
3Dガウススプラッティングは、新しいビュー合成のための代替の3D表現として登場した。
SAGDは3D-GSのための概念的にシンプルで効果的な境界拡張パイプラインである。
提案手法は粗い境界問題なく高品質な3Dセグメンテーションを実現し,他のシーン編集作業にも容易に適用できる。
論文 参考訳(メタデータ) (2024-01-31T14:19:03Z) - Compact 3D Scene Representation via Self-Organizing Gaussian Grids [10.816451552362823]
3D Gaussian Splattingは、静的な3Dシーンをモデリングするための非常に有望なテクニックとして最近登場した。
本稿では3DGSのパラメータを局所的均一性を持つ2次元グリッドに整理したコンパクトなシーン表現を提案する。
本手法は,訓練時間の増加を伴わない複雑なシーンに対して,17倍から42倍の縮小係数を実現する。
論文 参考訳(メタデータ) (2023-12-19T20:18:29Z) - BerfScene: Bev-conditioned Equivariant Radiance Fields for Infinite 3D
Scene Generation [96.58789785954409]
本研究では,同変放射場と鳥眼視図のガイダンスを組み込んだ実用的で効率的な3次元表現を提案する。
局所的なシーンを合成し、スムーズな一貫性で縫い合わせることで、大規模で無限スケールの3Dシーンを作ります。
論文 参考訳(メタデータ) (2023-12-04T18:56:10Z) - Gaussian Grouping: Segment and Edit Anything in 3D Scenes [65.49196142146292]
ガウシアン・グルーピング(ガウシアン・グルーピング)はガウシアン・スプラッティングを拡張して,オープンワールドの3Dシーンで何かを共同で再構築・分割する。
暗黙のNeRF表現と比較すると,グループ化された3次元ガウシアンは,高画質,微粒度,高効率で,あらゆるものを3次元で再構成,分割,編集することができる。
論文 参考訳(メタデータ) (2023-12-01T17:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。