論文の概要: HUG: Hierarchical Urban Gaussian Splatting with Block-Based Reconstruction
- arxiv url: http://arxiv.org/abs/2504.16606v1
- Date: Wed, 23 Apr 2025 10:40:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 16:54:26.923017
- Title: HUG: Hierarchical Urban Gaussian Splatting with Block-Based Reconstruction
- Title(参考訳): HUG:ブロックベース再構築による階層型都市ガウススプラッティング
- Authors: Zhongtao Wang, Mai Su, Huishan Au, Yilong Li, Xizhe Cao, Chengwei Pan, Yisong Chen, Guoping Wang,
- Abstract要約: 本稿では,大規模都市環境における非効率性に対処する新しい手法であるHUGを提案する。
我々は,ブロック内の再構築品質の向上に着目した拡張ブロックベース再構築パイプラインを採用している。
計算コストの低い高品質なシーンレンダリングを実現する。
- 参考スコア(独自算出の注目度): 13.214165748862815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As urban 3D scenes become increasingly complex and the demand for high-quality rendering grows, efficient scene reconstruction and rendering techniques become crucial. We present HUG, a novel approach to address inefficiencies in handling large-scale urban environments and intricate details based on 3D Gaussian splatting. Our method optimizes data partitioning and the reconstruction pipeline by incorporating a hierarchical neural Gaussian representation. We employ an enhanced block-based reconstruction pipeline focusing on improving reconstruction quality within each block and reducing the need for redundant training regions around block boundaries. By integrating neural Gaussian representation with a hierarchical architecture, we achieve high-quality scene rendering at a low computational cost. This is demonstrated by our state-of-the-art results on public benchmarks, which prove the effectiveness and advantages in large-scale urban scene representation.
- Abstract(参考訳): 都市部の3Dシーンが複雑化し、高品質なレンダリングの需要が高まるにつれ、効率的なシーン再構築とレンダリング技術が重要となる。
本稿では,大規模都市環境の処理における非効率性に対処する新しい手法であるHUGについて紹介する。
階層型ニューラルガウス表現を組み込んだデータ分割と再構成パイプラインを最適化する。
我々は,ブロック内の再構築品質の向上と,ブロック境界周辺の冗長なトレーニング領域の必要性の低減に着目した,ブロックベースの再構築パイプラインを改良した。
ニューラルガウス表現を階層的アーキテクチャに統合することにより、低計算コストで高品質なシーンレンダリングを実現する。
これは,大規模な都市景観表現の有効性とメリットを実証した,公開ベンチマークの最先端結果によって実証された。
関連論文リスト
- RobustGS: Unified Boosting of Feedforward 3D Gaussian Splatting under Low-Quality Conditions [67.48495052903534]
本稿では,汎用的で効率的なマルチビュー機能拡張モジュールRobustGSを提案する。
各種の有害撮像条件下でのフィードフォワード3DGS法のロバスト性を大幅に向上させる。
RobustGSモジュールはプラグイン・アンド・プレイ方式で既存の事前訓練パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-05T04:50:29Z) - High-Fidelity and Generalizable Neural Surface Reconstruction with Sparse Feature Volumes [50.83282258807327]
一般化可能なニューラルサーフェス再構成は、シーンごとの最適化なしに、少数の画像から再構成するための魅力的な技術となっている。
本稿では,メモリ効率を最大化し,標準ハードウェア上での高分解能再構成を可能にするスパース表現法を提案する。
論文 参考訳(メタデータ) (2025-07-08T12:50:39Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - QuickSplat: Fast 3D Surface Reconstruction via Learned Gaussian Initialization [69.50126552763157]
表面再構成はコンピュータビジョンとグラフィックスの基本であり、3Dモデリング、混合現実、ロボット工学などの応用を可能にする。
レンダリングに基づく既存のアプローチは有望な結果を得るが、シーンごとに最適化されるため、テクスチャレスな領域をモデル化するのに苦労する可能性がある。
大規模屋内シーンの2次元ガウススプラッティング最適化のための高密度初期化を生成するために,データ駆動の先行処理を学習するQuickSplatを紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:43:26Z) - BlockGaussian: Efficient Large-Scale Scene Novel View Synthesis via Adaptive Block-Based Gaussian Splatting [23.190361456894816]
BlockGaussianは、コンテンツ対応シーン分割戦略と可視性対応ブロック最適化を取り入れた、新しいフレームワークである。
提案手法は,複数ベンチマークで5倍の高速化とPSNR平均1.21dBの改善を実現し,再現効率とレンダリング品質の両面において最先端の性能を実現する。
特に、BlockGaussianは計算要求を大幅に削減し、24GBのVRAMデバイスで大規模なシーン再構成を可能にする。
論文 参考訳(メタデータ) (2025-04-12T02:05:55Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - StructGS: Adaptive Spherical Harmonics and Rendering Enhancements for Superior 3D Gaussian Splatting [5.759434800012218]
StructGS は 3D Gaussian Splatting (3DGS) を強化し、3D再構成における新規なビュー合成を改善するフレームワークである。
我々のフレームワークは計算冗長性を著しく低減し、ディテールキャプチャを強化し、低解像度入力からの高解像度レンダリングをサポートする。
論文 参考訳(メタデータ) (2025-03-09T05:39:44Z) - CoSurfGS:Collaborative 3D Surface Gaussian Splatting with Distributed Learning for Large Scene Reconstruction [68.81212850946318]
大規模表面再構成のための分散学習に基づく多エージェント協調高速3DGS表面再構成フレームワークを提案する。
具体的には,局所モデル圧縮(LMC)とモデルアグリゲーションスキーム(MAS)を開発し,大規模シーンの高品質な表面表現を実現する。
提案手法は高速でスケーラブルな高忠実表面再構成とフォトリアリスティックレンダリングを実現する。
論文 参考訳(メタデータ) (2024-12-23T14:31:15Z) - Radiant: Large-scale 3D Gaussian Rendering based on Hierarchical Framework [13.583584930991847]
大規模シーン再構成のための階層型3DGSアルゴリズムであるRadiantを提案する。
Radiantは、リビルド品質を最大25.7%改善し、エンドツーエンドのレイテンシを79.6%削減した。
論文 参考訳(メタデータ) (2024-12-07T05:48:00Z) - GausSurf: Geometry-Guided 3D Gaussian Splatting for Surface Reconstruction [79.42244344704154]
GausSurfは、テクスチャリッチな領域におけるマルチビュー一貫性と、シーンのテクスチャレスな領域における通常の事前の幾何学的ガイダンスを採用している。
本手法は,再現性や計算時間の観点から,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-11-29T03:54:54Z) - DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - Discretized Gaussian Representation for Tomographic Reconstruction [20.390232991700977]
我々はCT再構成のための離散化ガウス表現法(DGR)を提案する。
DGRは、離散化されたガウス関数の集合をエンドツーエンドで直接3Dボリュームを再構成する。
実世界のデータセットと合成データセットの両方に対する実験により、DGRはより優れた再構成品質を実現し、計算効率を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-11-07T16:32:29Z) - Evaluating Modern Approaches in 3D Scene Reconstruction: NeRF vs Gaussian-Based Methods [4.6836510920448715]
本研究では,3次元シーン再構成におけるニューラルレージアン場(NeRF)とガウス法(Gaussian-based method)の機能について検討する。
我々は,追跡精度,マッピング忠実度,ビュー合成に基づく性能評価を行った。
発見によると、NeRFはビュー合成に優れており、既存のデータから新しい視点を生成するユニークな機能を提供する。
論文 参考訳(メタデータ) (2024-08-08T07:11:57Z) - Efficient Depth-Guided Urban View Synthesis [52.841803876653465]
高速フィードフォワード推論とシーンごとのファインチューニングのための効率的な深層誘導型都市ビュー合成(EDUS)を提案する。
EDUSは、粗い入力画像から一般化可能な都市ビュー合成を可能にするためのガイダンスとして、ノイズの多い幾何学的先行情報を利用する。
その結果,EDUSは高速なテスト時間最適化と組み合わせることで,スパース・ビュー・セッティングにおける最先端性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-07-17T08:16:25Z) - HO-Gaussian: Hybrid Optimization of 3D Gaussian Splatting for Urban Scenes [24.227745405760697]
本稿では,グリッドベースボリュームと3DGSパイプラインを組み合わせたHO-Gaussianというハイブリッド最適化手法を提案する。
広範に使用されている自律走行データセットの結果から,HO-Gaussianはマルチカメラ都市データセット上でリアルタイムに写真リアリスティックレンダリングを実現することが示された。
論文 参考訳(メタデータ) (2024-03-29T07:58:21Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - Enhancing Surface Neural Implicits with Curvature-Guided Sampling and Uncertainty-Augmented Representations [37.42624848693373]
本研究では,高忠実度3次元再構成作業において,深度画像を直接消化する手法を提案する。
高効率なトレーニングデータを生成するため,簡単なサンプリング手法を提案する。
その単純さにもかかわらず、本手法は古典的および学習的ベースラインの両方に優れる。
論文 参考訳(メタデータ) (2023-06-03T12:23:17Z) - Monocular Real-Time Volumetric Performance Capture [28.481131687883256]
本稿では,モノクロ映像から実時間速度でボリューム・パフォーマンス・キャプチャとノベル・ビュー・レンダリングを行うための最初のアプローチを提案する。
このシステムは,Pixel-Aligned Implicit Function (PIFu)を活用して,各フレームから完全にテクスチャ化された3次元人体を再構成する。
また,オンラインハード・サンプル・マイニング(OHEM)技術を導入し,難題の稀な発生により,障害モードを効果的に抑制する手法を提案する。
論文 参考訳(メタデータ) (2020-07-28T04:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。