論文の概要: 3D Gaussian Splatting for Fine-Detailed Surface Reconstruction in Large-Scale Scene
- arxiv url: http://arxiv.org/abs/2506.17636v1
- Date: Sat, 21 Jun 2025 08:41:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.519531
- Title: 3D Gaussian Splatting for Fine-Detailed Surface Reconstruction in Large-Scale Scene
- Title(参考訳): 大規模シーンにおける微細表面再構成のための3次元ガウススメッティング
- Authors: Shihan Chen, Zhaojin Li, Zeyu Chen, Qingsong Yan, Gaoyang Shen, Ran Duan,
- Abstract要約: 本稿では,大規模な表面を細部まで細部まで再現し,フルサイズの画像で観察する手法を提案する。
粗大なモデルを効率的に再構築するための粗大な戦略を導入し, 適応的なシーン分割とサブシーン精錬を行った。
無人航空機で撮影された公開データセット GauU-Scene V2 で実験が行われた。
- 参考スコア(独自算出の注目度): 9.344622188779308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent developments in 3D Gaussian Splatting have made significant advances in surface reconstruction. However, scaling these methods to large-scale scenes remains challenging due to high computational demands and the complex dynamic appearances typical of outdoor environments. These challenges hinder the application in aerial surveying and autonomous driving. This paper proposes a novel solution to reconstruct large-scale surfaces with fine details, supervised by full-sized images. Firstly, we introduce a coarse-to-fine strategy to reconstruct a coarse model efficiently, followed by adaptive scene partitioning and sub-scene refining from image segments. Additionally, we integrate a decoupling appearance model to capture global appearance variations and a transient mask model to mitigate interference from moving objects. Finally, we expand the multi-view constraint and introduce a single-view regularization for texture-less areas. Our experiments were conducted on the publicly available dataset GauU-Scene V2, which was captured using unmanned aerial vehicles. To the best of our knowledge, our method outperforms existing NeRF-based and Gaussian-based methods, achieving high-fidelity visual results and accurate surface from full-size image optimization. Open-source code will be available on GitHub.
- Abstract(参考訳): 近年の3次元ガウス平滑化は表面改質に大きな進展をもたらした。
しかし,これらの手法を大規模シーンに拡張することは,高い計算要求と屋外環境に典型的な複雑な動的外観のため,依然として困難である。
これらの課題は、航空測量と自動運転の応用を妨げる。
本稿では,大規模な表面を細部まで細部まで再現し,フルサイズの画像で観察する手法を提案する。
まず、粗いモデルを効率的に再構築する粗大な戦略を導入し、その後、適応的なシーン分割と画像セグメントからのサブシーン精錬を行う。
さらに、大域的な外見の変化を捉えるために疎結合の外観モデルと、移動物体からの干渉を軽減するために過渡マスクモデルを統合する。
最後に、マルチビュー制約を拡張し、テクスチャレス領域の単一ビュー正規化を導入する。
本実験は,無人航空機を用いたGauU-Scene V2の公開データセットを用いて行った。
我々の知る限り、本手法は既存のNeRF法やガウス法よりも優れており、フルサイズの画像最適化から高忠実度な視覚的結果と正確な表面が得られる。
オープンソースコードはGitHubで入手できる。
関連論文リスト
- OGGSplat: Open Gaussian Growing for Generalizable Reconstruction with Expanded Field-of-View [74.58230239274123]
一般化可能な3次元再構成において視野を拡大するオープンガウス成長法であるOGGSplatを提案する。
我々の重要な洞察は、オープンガウスのセマンティックな属性が、画像外挿の強い先行性を提供するということである。
OGGSplatはまた、スマートフォンカメラから直接撮影される2つのビューイメージを備えた場合、有望なセマンティック・アウェア・シーン再構築機能を示す。
論文 参考訳(メタデータ) (2025-06-05T16:17:18Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - CrossView-GS: Cross-view Gaussian Splatting For Large-scale Scene Reconstruction [5.528874948395173]
マルチブランチ構築と融合に基づく大規模シーン再構築のための新しいクロスビューガウス分割法を提案する。
本手法は,最先端の手法と比較して,新規なビュー合成における優れた性能を実現する。
論文 参考訳(メタデータ) (2025-01-03T08:24:59Z) - CoSurfGS:Collaborative 3D Surface Gaussian Splatting with Distributed Learning for Large Scene Reconstruction [68.81212850946318]
大規模表面再構成のための分散学習に基づく多エージェント協調高速3DGS表面再構成フレームワークを提案する。
具体的には,局所モデル圧縮(LMC)とモデルアグリゲーションスキーム(MAS)を開発し,大規模シーンの高品質な表面表現を実現する。
提案手法は高速でスケーラブルな高忠実表面再構成とフォトリアリスティックレンダリングを実現する。
論文 参考訳(メタデータ) (2024-12-23T14:31:15Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [84.07233691641193]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - GaRField++: Reinforced Gaussian Radiance Fields for Large-Scale 3D Scene Reconstruction [1.7624442706463355]
本稿では,3次元ガウススプラッティングに基づく大規模シーン再構築のための新しい枠組みを提案する(3DGS)。
スケーラビリティ問題に対処するため,大規模シーンを複数のセルに分割し,各セルの候補ポイントクラウドとカメラビューとを相関させる。
本研究では,大規模シーン再構成の最先端手法よりも連続的に高忠実度レンダリング結果を生成することを示す。
論文 参考訳(メタデータ) (2024-09-19T13:43:31Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。