論文の概要: HUG: Hierarchical Urban Gaussian Splatting with Block-Based Reconstruction for Large-Scale Aerial Scenes
- arxiv url: http://arxiv.org/abs/2504.16606v2
- Date: Thu, 26 Jun 2025 06:12:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 13:31:57.683081
- Title: HUG: Hierarchical Urban Gaussian Splatting with Block-Based Reconstruction for Large-Scale Aerial Scenes
- Title(参考訳): HUG:大規模航空シーンのブロックベース再構成による階層型都市ガウススプラッティング
- Authors: Mai Su, Zhongtao Wang, Huishan Au, Yilong Li, Xizhe Cao, Chengwei Pan, Yisong Chen, Guoping Wang,
- Abstract要約: 3DGS法は、過剰なメモリ消費、遅いトレーニング時間、長いパーティショニングプロセス、データボリュームの増加によるレンダリング品質の大幅な低下といった問題に悩まされている。
階層型ニューラルガウス表現を活用することでデータ分割と復元品質を向上させる新しいアプローチである textbfHUG を導入する。
提案手法は,1つの合成データセットと4つの実世界のデータセットに対して,最先端の結果を得る。
- 参考スコア(独自算出の注目度): 13.214165748862815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3DGS is an emerging and increasingly popular technology in the field of novel view synthesis. Its highly realistic rendering quality and real-time rendering capabilities make it promising for various applications. However, when applied to large-scale aerial urban scenes, 3DGS methods suffer from issues such as excessive memory consumption, slow training times, prolonged partitioning processes, and significant degradation in rendering quality due to the increased data volume. To tackle these challenges, we introduce \textbf{HUG}, a novel approach that enhances data partitioning and reconstruction quality by leveraging a hierarchical neural Gaussian representation. We first propose a visibility-based data partitioning method that is simple yet highly efficient, significantly outperforming existing methods in speed. Then, we introduce a novel hierarchical weighted training approach, combined with other optimization strategies, to substantially improve reconstruction quality. Our method achieves state-of-the-art results on one synthetic dataset and four real-world datasets.
- Abstract(参考訳): 3DGSは、新しいビュー合成の分野で、ますます人気が高まっている技術だ。
その非常にリアルなレンダリング品質とリアルタイムレンダリング能力は、様々なアプリケーションに有望である。
しかし, 大規模都市環境に適用した場合, 3DGS法は, 過大なメモリ消費, 遅いトレーニング時間, 長いパーティショニングプロセス, データ量の増加によるレンダリング品質の大幅な低下といった問題に悩まされる。
これらの課題に対処するために,階層型ニューラルガウス表現を活用してデータ分割と再構成品質を向上させる新しいアプローチである \textbf{HUG} を導入する。
まず,可視性に基づくデータ分割手法を提案する。
そこで本研究では,新しい階層的重み付きトレーニング手法と他の最適化戦略を併用して,再構築の質を大幅に向上させる手法を提案する。
提案手法は,1つの合成データセットと4つの実世界のデータセットに対して,最先端の結果を得る。
関連論文リスト
- BlockGaussian: Efficient Large-Scale Scene Novel View Synthesis via Adaptive Block-Based Gaussian Splatting [23.190361456894816]
BlockGaussianは、コンテンツ対応シーン分割戦略と可視性対応ブロック最適化を取り入れた、新しいフレームワークである。
提案手法は,複数ベンチマークで5倍の高速化とPSNR平均1.21dBの改善を実現し,再現効率とレンダリング品質の両面において最先端の性能を実現する。
特に、BlockGaussianは計算要求を大幅に削減し、24GBのVRAMデバイスで大規模なシーン再構成を可能にする。
論文 参考訳(メタデータ) (2025-04-12T02:05:55Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - StructGS: Adaptive Spherical Harmonics and Rendering Enhancements for Superior 3D Gaussian Splatting [5.759434800012218]
StructGS は 3D Gaussian Splatting (3DGS) を強化し、3D再構成における新規なビュー合成を改善するフレームワークである。
我々のフレームワークは計算冗長性を著しく低減し、ディテールキャプチャを強化し、低解像度入力からの高解像度レンダリングをサポートする。
論文 参考訳(メタデータ) (2025-03-09T05:39:44Z) - CoSurfGS:Collaborative 3D Surface Gaussian Splatting with Distributed Learning for Large Scene Reconstruction [68.81212850946318]
大規模表面再構成のための分散学習に基づく多エージェント協調高速3DGS表面再構成フレームワークを提案する。
具体的には,局所モデル圧縮(LMC)とモデルアグリゲーションスキーム(MAS)を開発し,大規模シーンの高品質な表面表現を実現する。
提案手法は高速でスケーラブルな高忠実表面再構成とフォトリアリスティックレンダリングを実現する。
論文 参考訳(メタデータ) (2024-12-23T14:31:15Z) - Radiant: Large-scale 3D Gaussian Rendering based on Hierarchical Framework [13.583584930991847]
大規模シーン再構成のための階層型3DGSアルゴリズムであるRadiantを提案する。
Radiantは、リビルド品質を最大25.7%改善し、エンドツーエンドのレイテンシを79.6%削減した。
論文 参考訳(メタデータ) (2024-12-07T05:48:00Z) - GausSurf: Geometry-Guided 3D Gaussian Splatting for Surface Reconstruction [79.42244344704154]
GausSurfは、テクスチャリッチな領域におけるマルチビュー一貫性と、シーンのテクスチャレスな領域における通常の事前の幾何学的ガイダンスを採用している。
本手法は,再現性や計算時間の観点から,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-11-29T03:54:54Z) - DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - Discretized Gaussian Representation for Tomographic Reconstruction [20.390232991700977]
我々はCT再構成のための離散化ガウス表現法(DGR)を提案する。
DGRは、離散化されたガウス関数の集合をエンドツーエンドで直接3Dボリュームを再構成する。
実世界のデータセットと合成データセットの両方に対する実験により、DGRはより優れた再構成品質を実現し、計算効率を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-11-07T16:32:29Z) - HO-Gaussian: Hybrid Optimization of 3D Gaussian Splatting for Urban Scenes [24.227745405760697]
本稿では,グリッドベースボリュームと3DGSパイプラインを組み合わせたHO-Gaussianというハイブリッド最適化手法を提案する。
広範に使用されている自律走行データセットの結果から,HO-Gaussianはマルチカメラ都市データセット上でリアルタイムに写真リアリスティックレンダリングを実現することが示された。
論文 参考訳(メタデータ) (2024-03-29T07:58:21Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。