論文の概要: HUG: Hierarchical Urban Gaussian Splatting with Block-Based Reconstruction
- arxiv url: http://arxiv.org/abs/2504.16606v1
- Date: Wed, 23 Apr 2025 10:40:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 16:54:26.923017
- Title: HUG: Hierarchical Urban Gaussian Splatting with Block-Based Reconstruction
- Title(参考訳): HUG:ブロックベース再構築による階層型都市ガウススプラッティング
- Authors: Zhongtao Wang, Mai Su, Huishan Au, Yilong Li, Xizhe Cao, Chengwei Pan, Yisong Chen, Guoping Wang,
- Abstract要約: 本稿では,大規模都市環境における非効率性に対処する新しい手法であるHUGを提案する。
我々は,ブロック内の再構築品質の向上に着目した拡張ブロックベース再構築パイプラインを採用している。
計算コストの低い高品質なシーンレンダリングを実現する。
- 参考スコア(独自算出の注目度): 13.214165748862815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As urban 3D scenes become increasingly complex and the demand for high-quality rendering grows, efficient scene reconstruction and rendering techniques become crucial. We present HUG, a novel approach to address inefficiencies in handling large-scale urban environments and intricate details based on 3D Gaussian splatting. Our method optimizes data partitioning and the reconstruction pipeline by incorporating a hierarchical neural Gaussian representation. We employ an enhanced block-based reconstruction pipeline focusing on improving reconstruction quality within each block and reducing the need for redundant training regions around block boundaries. By integrating neural Gaussian representation with a hierarchical architecture, we achieve high-quality scene rendering at a low computational cost. This is demonstrated by our state-of-the-art results on public benchmarks, which prove the effectiveness and advantages in large-scale urban scene representation.
- Abstract(参考訳): 都市部の3Dシーンが複雑化し、高品質なレンダリングの需要が高まるにつれ、効率的なシーン再構築とレンダリング技術が重要となる。
本稿では,大規模都市環境の処理における非効率性に対処する新しい手法であるHUGについて紹介する。
階層型ニューラルガウス表現を組み込んだデータ分割と再構成パイプラインを最適化する。
我々は,ブロック内の再構築品質の向上と,ブロック境界周辺の冗長なトレーニング領域の必要性の低減に着目した,ブロックベースの再構築パイプラインを改良した。
ニューラルガウス表現を階層的アーキテクチャに統合することにより、低計算コストで高品質なシーンレンダリングを実現する。
これは,大規模な都市景観表現の有効性とメリットを実証した,公開ベンチマークの最先端結果によって実証された。
関連論文リスト
- BlockGaussian: Efficient Large-Scale Scene Novel View Synthesis via Adaptive Block-Based Gaussian Splatting [23.190361456894816]
BlockGaussianは、コンテンツ対応シーン分割戦略と可視性対応ブロック最適化を取り入れた、新しいフレームワークである。
提案手法は,複数ベンチマークで5倍の高速化とPSNR平均1.21dBの改善を実現し,再現効率とレンダリング品質の両面において最先端の性能を実現する。
特に、BlockGaussianは計算要求を大幅に削減し、24GBのVRAMデバイスで大規模なシーン再構成を可能にする。
論文 参考訳(メタデータ) (2025-04-12T02:05:55Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - StructGS: Adaptive Spherical Harmonics and Rendering Enhancements for Superior 3D Gaussian Splatting [5.759434800012218]
StructGS は 3D Gaussian Splatting (3DGS) を強化し、3D再構成における新規なビュー合成を改善するフレームワークである。
我々のフレームワークは計算冗長性を著しく低減し、ディテールキャプチャを強化し、低解像度入力からの高解像度レンダリングをサポートする。
論文 参考訳(メタデータ) (2025-03-09T05:39:44Z) - CoSurfGS:Collaborative 3D Surface Gaussian Splatting with Distributed Learning for Large Scene Reconstruction [68.81212850946318]
大規模表面再構成のための分散学習に基づく多エージェント協調高速3DGS表面再構成フレームワークを提案する。
具体的には,局所モデル圧縮(LMC)とモデルアグリゲーションスキーム(MAS)を開発し,大規模シーンの高品質な表面表現を実現する。
提案手法は高速でスケーラブルな高忠実表面再構成とフォトリアリスティックレンダリングを実現する。
論文 参考訳(メタデータ) (2024-12-23T14:31:15Z) - Radiant: Large-scale 3D Gaussian Rendering based on Hierarchical Framework [13.583584930991847]
大規模シーン再構成のための階層型3DGSアルゴリズムであるRadiantを提案する。
Radiantは、リビルド品質を最大25.7%改善し、エンドツーエンドのレイテンシを79.6%削減した。
論文 参考訳(メタデータ) (2024-12-07T05:48:00Z) - GausSurf: Geometry-Guided 3D Gaussian Splatting for Surface Reconstruction [79.42244344704154]
GausSurfは、テクスチャリッチな領域におけるマルチビュー一貫性と、シーンのテクスチャレスな領域における通常の事前の幾何学的ガイダンスを採用している。
本手法は,再現性や計算時間の観点から,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-11-29T03:54:54Z) - DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - Discretized Gaussian Representation for Tomographic Reconstruction [20.390232991700977]
我々はCT再構成のための離散化ガウス表現法(DGR)を提案する。
DGRは、離散化されたガウス関数の集合をエンドツーエンドで直接3Dボリュームを再構成する。
実世界のデータセットと合成データセットの両方に対する実験により、DGRはより優れた再構成品質を実現し、計算効率を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-11-07T16:32:29Z) - HO-Gaussian: Hybrid Optimization of 3D Gaussian Splatting for Urban Scenes [24.227745405760697]
本稿では,グリッドベースボリュームと3DGSパイプラインを組み合わせたHO-Gaussianというハイブリッド最適化手法を提案する。
広範に使用されている自律走行データセットの結果から,HO-Gaussianはマルチカメラ都市データセット上でリアルタイムに写真リアリスティックレンダリングを実現することが示された。
論文 参考訳(メタデータ) (2024-03-29T07:58:21Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。