論文の概要: OccluGaussian: Occlusion-Aware Gaussian Splatting for Large Scene Reconstruction and Rendering
- arxiv url: http://arxiv.org/abs/2503.16177v1
- Date: Thu, 20 Mar 2025 14:18:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 15:30:52.430056
- Title: OccluGaussian: Occlusion-Aware Gaussian Splatting for Large Scene Reconstruction and Rendering
- Title(参考訳): OccluGaussian:Occlusion-Aware Gaussian Splatting for Large Scene Reconstruction and Rendering
- Authors: Shiyong Liu, Xiao Tang, Zhihao Li, Yingfan He, Chongjie Ye, Jianzhuang Liu, Binxiao Huang, Shunbo Zhou, Xiaofei Wu,
- Abstract要約: 大規模なシーン再構築では、シーンを複数の小さな領域に分割して個別に再構築することが一般的である。
本稿では,カメラの位置と視認性に基づいてカメラをクラスタリングし,複数の領域を抽出するOcclusion-aware scene division戦略を提案する。
また,大画面レンダリングを高速化する領域ベースのレンダリング手法を提案し,視点のある領域にガウス人が見えないようにした。
- 参考スコア(独自算出の注目度): 35.490400711242216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In large-scale scene reconstruction using 3D Gaussian splatting, it is common to partition the scene into multiple smaller regions and reconstruct them individually. However, existing division methods are occlusion-agnostic, meaning that each region may contain areas with severe occlusions. As a result, the cameras within those regions are less correlated, leading to a low average contribution to the overall reconstruction. In this paper, we propose an occlusion-aware scene division strategy that clusters training cameras based on their positions and co-visibilities to acquire multiple regions. Cameras in such regions exhibit stronger correlations and a higher average contribution, facilitating high-quality scene reconstruction. We further propose a region-based rendering technique to accelerate large scene rendering, which culls Gaussians invisible to the region where the viewpoint is located. Such a technique significantly speeds up the rendering without compromising quality. Extensive experiments on multiple large scenes show that our method achieves superior reconstruction results with faster rendering speed compared to existing state-of-the-art approaches. Project page: https://occlugaussian.github.io.
- Abstract(参考訳): 3次元ガウススプラッティングを用いた大規模シーン再構成では、シーンを複数の小さな領域に分割し、個別に再構成することが一般的である。
しかし、既存の分割法は排他的ではないため、各地域は重度の排他的排他的排他的領域を含む可能性がある。
その結果、これらの領域内のカメラの相関は小さくなり、全体の再構築への平均的な貢献は低くなった。
本稿では,カメラの位置と視認性に基づいてカメラをクラスタリングし,複数の領域を取得するオクルージョン・アウェア・シーン分割戦略を提案する。
このような地域のカメラは、より強い相関関係を示し、より平均的な貢献を示し、高品質なシーン再構築を促進する。
さらに,大画面レンダリングを高速化する領域ベースのレンダリング手法を提案し,視点のある領域にガウス人が見えないようにした。
このような技術は、品質を損なうことなくレンダリングを著しく高速化する。
複数の大規模シーンでの大規模な実験により,従来の最先端手法に比べて高速なレンダリング速度で再現性が向上したことを示す。
プロジェクトページ: https://occlugaussian.github.io
関連論文リスト
- HUG: Hierarchical Urban Gaussian Splatting with Block-Based Reconstruction [13.214165748862815]
本稿では,大規模都市環境における非効率性に対処する新しい手法であるHUGを提案する。
我々は,ブロック内の再構築品質の向上に着目した拡張ブロックベース再構築パイプラインを採用している。
計算コストの低い高品質なシーンレンダリングを実現する。
論文 参考訳(メタデータ) (2025-04-23T10:40:40Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - AbsGS: Recovering Fine Details for 3D Gaussian Splatting [10.458776364195796]
3D Gaussian Splatting (3D-GS) 技術は3Dプリミティブを相違可能なガウス化と組み合わせて高品質な新規ビュー結果を得る。
しかし、3D-GSは、高頻度の詳細を含む複雑なシーンで過度に再構成の問題に悩まされ、ぼやけた描画画像に繋がる。
本稿では,前述の人工物,すなわち勾配衝突の原因を包括的に分析する。
我々の戦略は過度に再構成された地域のガウス人を効果的に同定し、分割して細部を復元する。
論文 参考訳(メタデータ) (2024-04-16T11:44:12Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - Visual Localization via Few-Shot Scene Region Classification [84.34083435501094]
ビジュアル(再)ローカライゼーションは、既知のシーンでキャプチャされたクエリイメージの6-DoFカメラのポーズを推定する問題に対処する。
画像画素からシーン座標へのマッピングを記憶することで,この問題を解決する。
シーン領域の分類手法を提案する。
論文 参考訳(メタデータ) (2022-08-14T22:39:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。