論文の概要: Sparse Point Cloud Patches Rendering via Splitting 2D Gaussians
- arxiv url: http://arxiv.org/abs/2505.09413v1
- Date: Wed, 14 May 2025 14:10:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.486001
- Title: Sparse Point Cloud Patches Rendering via Splitting 2D Gaussians
- Title(参考訳): 2Dガウス分割によるスパースポイントクラウドのレンダリング
- Authors: Ma Changfeng, Bi Ran, Guo Jie, Wang Chongjun, Guo Yanwen,
- Abstract要約: 現在の学習に基づく手法は、点雲からNeRFまたは3Dガウスを予測し、写真リアリスティックレンダリングを実現する。
点雲から2次元ガウスアンを予測することによって,新しい点雲レンダリング手法を提案する。
各種データセットについて広範な実験を行い,本手法の優位性と一般化を実証した。
- 参考スコア(独自算出の注目度): 0.19972837513980318
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current learning-based methods predict NeRF or 3D Gaussians from point clouds to achieve photo-realistic rendering but still depend on categorical priors, dense point clouds, or additional refinements. Hence, we introduce a novel point cloud rendering method by predicting 2D Gaussians from point clouds. Our method incorporates two identical modules with an entire-patch architecture enabling the network to be generalized to multiple datasets. The module normalizes and initializes the Gaussians utilizing the point cloud information including normals, colors and distances. Then, splitting decoders are employed to refine the initial Gaussians by duplicating them and predicting more accurate results, making our methodology effectively accommodate sparse point clouds as well. Once trained, our approach exhibits direct generalization to point clouds across different categories. The predicted Gaussians are employed directly for rendering without additional refinement on the rendered images, retaining the benefits of 2D Gaussians. We conduct extensive experiments on various datasets, and the results demonstrate the superiority and generalization of our method, which achieves SOTA performance. The code is available at https://github.com/murcherful/GauPCRender}{https://github.com/murcherful/GauPCRender.
- Abstract(参考訳): 現在の学習に基づく手法では、NeRFまたは3Dガウスアンを点雲から予測し、写真リアリスティックなレンダリングを実現するが、それでもカテゴリの先行、密度の高い点雲、追加の改良に依存している。
そこで我々は,2次元ガウスアンを点雲から予測することで,新たな点雲レンダリング手法を提案する。
提案手法では,ネットワークを複数のデータセットに一般化可能な全パッチアーキテクチャを備えた2つの同一モジュールを組み込む。
モジュールは、正常、色、距離を含む点雲情報を利用してガウスを正規化し、初期化する。
次に、分割復号器を用いて初期ガウスを復号し、より正確な結果を予測することにより、疎点雲を効果的に扱えるようにした。
一度訓練すると、我々のアプローチは様々なカテゴリーにまたがる雲を向ける直接的な一般化を示す。
予測されたガウス像は、2Dガウス像の利点を保ちながら、レンダリングにさらなる改良を加えることなく直接使用される。
各種データセットについて広範な実験を行い,SOTA性能を実現する手法の優位性と一般化を実証した。
コードはhttps://github.com/murcherful/GauPCRender}{https://github.com/murcherful/GauPCRenderで入手できる。
関連論文リスト
- GPS-Gaussian+: Generalizable Pixel-wise 3D Gaussian Splatting for Real-Time Human-Scene Rendering from Sparse Views [67.34073368933814]
スパースビューカメラ設定下での高解像度画像レンダリングのための一般化可能なガウススプラッティング手法を提案する。
我々は,人間のみのデータや人景データに基づいてガウスパラメータ回帰モジュールをトレーニングし,深度推定モジュールと共同で2次元パラメータマップを3次元空間に引き上げる。
いくつかのデータセットに対する実験により、我々の手法はレンダリング速度を超越しながら最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-18T08:18:44Z) - P2P-Bridge: Diffusion Bridges for 3D Point Cloud Denoising [81.92854168911704]
私たちは、Diffusion Schr"odingerブリッジをポイントクラウドに適応させる新しいフレームワークを通じて、ポイントクラウドを飾るタスクに取り組みます。
オブジェクトデータセットの実験では、P2P-Bridgeは既存のメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-08-29T08:00:07Z) - ShapeSplat: A Large-scale Dataset of Gaussian Splats and Their Self-Supervised Pretraining [104.34751911174196]
ShapeNetとModelNetを用いた大規模3DGSデータセットを構築した。
データセットのShapeSplatは、87のユニークなカテゴリから65Kのオブジェクトで構成されています。
textbftextitGaussian-MAEを導入し、ガウスパラメータからの表現学習の独特な利点を強調した。
論文 参考訳(メタデータ) (2024-08-20T14:49:14Z) - PFGS: High Fidelity Point Cloud Rendering via Feature Splatting [5.866747029417274]
スパースポイントから高品質な画像をレンダリングする新しいフレームワークを提案する。
この手法はまず3次元ガウス格子と点雲のレンダリングを橋渡しする。
異なるベンチマーク実験により、レンダリング品質と主成分の必要性の観点から、我々の手法の優位性を示す。
論文 参考訳(メタデータ) (2024-07-04T11:42:54Z) - LeanGaussian: Breaking Pixel or Point Cloud Correspondence in Modeling 3D Gaussians [11.71048049090424]
変形可能なトランスフォーマーにおける各クエリを1つの3次元ガウス楕円体として扱う新しいアプローチであるLeanGaussianを紹介する。
変形可能なデコーダを用いて、画像特徴をキーと値として、ガウス層を反復的に洗練する。
提案手法は従来の手法よりも約6.1%優れ,PSNRは25.44,PSNRは22.36であった。
論文 参考訳(メタデータ) (2024-04-25T04:18:59Z) - ComPC: Completing a 3D Point Cloud with 2D Diffusion Priors [52.72867922938023]
センサーを通して直接オブジェクトから収集される3Dポイント雲は、自己閉塞のため、しばしば不完全である。
トレーニングを必要とせずに、未確認のカテゴリにまたがる部分点雲を完結させるテストタイムフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T08:02:17Z) - GaussianObject: High-Quality 3D Object Reconstruction from Four Views with Gaussian Splatting [82.29476781526752]
高度にスパースな視点から3Dオブジェクトを再構成・レンダリングすることは、3Dビジョン技術の応用を促進する上で非常に重要である。
GaussianObjectは、Gaussian splattingで3Dオブジェクトを表現してレンダリングするフレームワークで、4つの入力イメージだけで高いレンダリング品質を実現する。
GaussianObjectは、MipNeRF360、OmniObject3D、OpenIllumination、および私たちが収集した未提示画像など、いくつかの挑戦的なデータセットで評価されている。
論文 参考訳(メタデータ) (2024-02-15T18:42:33Z) - Lifting 2D Object Locations to 3D by Discounting LiDAR Outliers across
Objects and Views [70.1586005070678]
本稿では,2次元マスクオブジェクトの予測と生のLiDAR点雲を自動的に3次元境界ボックスに変換するシステムを提案する。
これらの手法は, より複雑なパイプラインや3Dモデル, 付加的な人為的な事前情報ソースを使用するにもかかわらず, 従来よりもはるかに優れていた。
論文 参考訳(メタデータ) (2021-09-16T13:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。