論文の概要: HUG: Hierarchical Urban Gaussian Splatting with Block-Based Reconstruction for Large-Scale Aerial Scenes
- arxiv url: http://arxiv.org/abs/2504.16606v2
- Date: Thu, 26 Jun 2025 06:12:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 13:31:57.683081
- Title: HUG: Hierarchical Urban Gaussian Splatting with Block-Based Reconstruction for Large-Scale Aerial Scenes
- Title(参考訳): HUG:大規模航空シーンのブロックベース再構成による階層型都市ガウススプラッティング
- Authors: Mai Su, Zhongtao Wang, Huishan Au, Yilong Li, Xizhe Cao, Chengwei Pan, Yisong Chen, Guoping Wang,
- Abstract要約: 3DGS法は、過剰なメモリ消費、遅いトレーニング時間、長いパーティショニングプロセス、データボリュームの増加によるレンダリング品質の大幅な低下といった問題に悩まされている。
階層型ニューラルガウス表現を活用することでデータ分割と復元品質を向上させる新しいアプローチである textbfHUG を導入する。
提案手法は,1つの合成データセットと4つの実世界のデータセットに対して,最先端の結果を得る。
- 参考スコア(独自算出の注目度): 13.214165748862815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3DGS is an emerging and increasingly popular technology in the field of novel view synthesis. Its highly realistic rendering quality and real-time rendering capabilities make it promising for various applications. However, when applied to large-scale aerial urban scenes, 3DGS methods suffer from issues such as excessive memory consumption, slow training times, prolonged partitioning processes, and significant degradation in rendering quality due to the increased data volume. To tackle these challenges, we introduce \textbf{HUG}, a novel approach that enhances data partitioning and reconstruction quality by leveraging a hierarchical neural Gaussian representation. We first propose a visibility-based data partitioning method that is simple yet highly efficient, significantly outperforming existing methods in speed. Then, we introduce a novel hierarchical weighted training approach, combined with other optimization strategies, to substantially improve reconstruction quality. Our method achieves state-of-the-art results on one synthetic dataset and four real-world datasets.
- Abstract(参考訳): 3DGSは、新しいビュー合成の分野で、ますます人気が高まっている技術だ。
その非常にリアルなレンダリング品質とリアルタイムレンダリング能力は、様々なアプリケーションに有望である。
しかし, 大規模都市環境に適用した場合, 3DGS法は, 過大なメモリ消費, 遅いトレーニング時間, 長いパーティショニングプロセス, データ量の増加によるレンダリング品質の大幅な低下といった問題に悩まされる。
これらの課題に対処するために,階層型ニューラルガウス表現を活用してデータ分割と再構成品質を向上させる新しいアプローチである \textbf{HUG} を導入する。
まず,可視性に基づくデータ分割手法を提案する。
そこで本研究では,新しい階層的重み付きトレーニング手法と他の最適化戦略を併用して,再構築の質を大幅に向上させる手法を提案する。
提案手法は,1つの合成データセットと4つの実世界のデータセットに対して,最先端の結果を得る。
関連論文リスト
- RobustGS: Unified Boosting of Feedforward 3D Gaussian Splatting under Low-Quality Conditions [67.48495052903534]
本稿では,汎用的で効率的なマルチビュー機能拡張モジュールRobustGSを提案する。
各種の有害撮像条件下でのフィードフォワード3DGS法のロバスト性を大幅に向上させる。
RobustGSモジュールはプラグイン・アンド・プレイ方式で既存の事前訓練パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-05T04:50:29Z) - High-Fidelity and Generalizable Neural Surface Reconstruction with Sparse Feature Volumes [50.83282258807327]
一般化可能なニューラルサーフェス再構成は、シーンごとの最適化なしに、少数の画像から再構成するための魅力的な技術となっている。
本稿では,メモリ効率を最大化し,標準ハードウェア上での高分解能再構成を可能にするスパース表現法を提案する。
論文 参考訳(メタデータ) (2025-07-08T12:50:39Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - QuickSplat: Fast 3D Surface Reconstruction via Learned Gaussian Initialization [69.50126552763157]
表面再構成はコンピュータビジョンとグラフィックスの基本であり、3Dモデリング、混合現実、ロボット工学などの応用を可能にする。
レンダリングに基づく既存のアプローチは有望な結果を得るが、シーンごとに最適化されるため、テクスチャレスな領域をモデル化するのに苦労する可能性がある。
大規模屋内シーンの2次元ガウススプラッティング最適化のための高密度初期化を生成するために,データ駆動の先行処理を学習するQuickSplatを紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:43:26Z) - BlockGaussian: Efficient Large-Scale Scene Novel View Synthesis via Adaptive Block-Based Gaussian Splatting [23.190361456894816]
BlockGaussianは、コンテンツ対応シーン分割戦略と可視性対応ブロック最適化を取り入れた、新しいフレームワークである。
提案手法は,複数ベンチマークで5倍の高速化とPSNR平均1.21dBの改善を実現し,再現効率とレンダリング品質の両面において最先端の性能を実現する。
特に、BlockGaussianは計算要求を大幅に削減し、24GBのVRAMデバイスで大規模なシーン再構成を可能にする。
論文 参考訳(メタデータ) (2025-04-12T02:05:55Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - StructGS: Adaptive Spherical Harmonics and Rendering Enhancements for Superior 3D Gaussian Splatting [5.759434800012218]
StructGS は 3D Gaussian Splatting (3DGS) を強化し、3D再構成における新規なビュー合成を改善するフレームワークである。
我々のフレームワークは計算冗長性を著しく低減し、ディテールキャプチャを強化し、低解像度入力からの高解像度レンダリングをサポートする。
論文 参考訳(メタデータ) (2025-03-09T05:39:44Z) - CoSurfGS:Collaborative 3D Surface Gaussian Splatting with Distributed Learning for Large Scene Reconstruction [68.81212850946318]
大規模表面再構成のための分散学習に基づく多エージェント協調高速3DGS表面再構成フレームワークを提案する。
具体的には,局所モデル圧縮(LMC)とモデルアグリゲーションスキーム(MAS)を開発し,大規模シーンの高品質な表面表現を実現する。
提案手法は高速でスケーラブルな高忠実表面再構成とフォトリアリスティックレンダリングを実現する。
論文 参考訳(メタデータ) (2024-12-23T14:31:15Z) - Radiant: Large-scale 3D Gaussian Rendering based on Hierarchical Framework [13.583584930991847]
大規模シーン再構成のための階層型3DGSアルゴリズムであるRadiantを提案する。
Radiantは、リビルド品質を最大25.7%改善し、エンドツーエンドのレイテンシを79.6%削減した。
論文 参考訳(メタデータ) (2024-12-07T05:48:00Z) - GausSurf: Geometry-Guided 3D Gaussian Splatting for Surface Reconstruction [79.42244344704154]
GausSurfは、テクスチャリッチな領域におけるマルチビュー一貫性と、シーンのテクスチャレスな領域における通常の事前の幾何学的ガイダンスを採用している。
本手法は,再現性や計算時間の観点から,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-11-29T03:54:54Z) - DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - Discretized Gaussian Representation for Tomographic Reconstruction [20.390232991700977]
我々はCT再構成のための離散化ガウス表現法(DGR)を提案する。
DGRは、離散化されたガウス関数の集合をエンドツーエンドで直接3Dボリュームを再構成する。
実世界のデータセットと合成データセットの両方に対する実験により、DGRはより優れた再構成品質を実現し、計算効率を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-11-07T16:32:29Z) - Evaluating Modern Approaches in 3D Scene Reconstruction: NeRF vs Gaussian-Based Methods [4.6836510920448715]
本研究では,3次元シーン再構成におけるニューラルレージアン場(NeRF)とガウス法(Gaussian-based method)の機能について検討する。
我々は,追跡精度,マッピング忠実度,ビュー合成に基づく性能評価を行った。
発見によると、NeRFはビュー合成に優れており、既存のデータから新しい視点を生成するユニークな機能を提供する。
論文 参考訳(メタデータ) (2024-08-08T07:11:57Z) - Efficient Depth-Guided Urban View Synthesis [52.841803876653465]
高速フィードフォワード推論とシーンごとのファインチューニングのための効率的な深層誘導型都市ビュー合成(EDUS)を提案する。
EDUSは、粗い入力画像から一般化可能な都市ビュー合成を可能にするためのガイダンスとして、ノイズの多い幾何学的先行情報を利用する。
その結果,EDUSは高速なテスト時間最適化と組み合わせることで,スパース・ビュー・セッティングにおける最先端性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-07-17T08:16:25Z) - HO-Gaussian: Hybrid Optimization of 3D Gaussian Splatting for Urban Scenes [24.227745405760697]
本稿では,グリッドベースボリュームと3DGSパイプラインを組み合わせたHO-Gaussianというハイブリッド最適化手法を提案する。
広範に使用されている自律走行データセットの結果から,HO-Gaussianはマルチカメラ都市データセット上でリアルタイムに写真リアリスティックレンダリングを実現することが示された。
論文 参考訳(メタデータ) (2024-03-29T07:58:21Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - Enhancing Surface Neural Implicits with Curvature-Guided Sampling and Uncertainty-Augmented Representations [37.42624848693373]
本研究では,高忠実度3次元再構成作業において,深度画像を直接消化する手法を提案する。
高効率なトレーニングデータを生成するため,簡単なサンプリング手法を提案する。
その単純さにもかかわらず、本手法は古典的および学習的ベースラインの両方に優れる。
論文 参考訳(メタデータ) (2023-06-03T12:23:17Z) - Monocular Real-Time Volumetric Performance Capture [28.481131687883256]
本稿では,モノクロ映像から実時間速度でボリューム・パフォーマンス・キャプチャとノベル・ビュー・レンダリングを行うための最初のアプローチを提案する。
このシステムは,Pixel-Aligned Implicit Function (PIFu)を活用して,各フレームから完全にテクスチャ化された3次元人体を再構成する。
また,オンラインハード・サンプル・マイニング(OHEM)技術を導入し,難題の稀な発生により,障害モードを効果的に抑制する手法を提案する。
論文 参考訳(メタデータ) (2020-07-28T04:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。