論文の概要: Robust and Efficient 3D Gaussian Splatting for Urban Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2507.23006v1
- Date: Wed, 30 Jul 2025 18:11:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:08.519563
- Title: Robust and Efficient 3D Gaussian Splatting for Urban Scene Reconstruction
- Title(参考訳): 都市景観復元のためのロバスト・高能率3次元ガウス切削法
- Authors: Zhensheng Yuan, Haozhi Huang, Zhen Xiong, Di Wang, Guanghua Yang,
- Abstract要約: 本稿では,都市景観の高速な再構築とリアルタイムレンダリングを実現するフレームワークを提案する。
提案手法は,都市規模のシーンを効果的に再構築し,効率と品質の両面で従来の手法より優れている。
- 参考スコア(独自算出の注目度): 10.948843569839305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a framework that enables fast reconstruction and real-time rendering of urban-scale scenes while maintaining robustness against appearance variations across multi-view captures. Our approach begins with scene partitioning for parallel training, employing a visibility-based image selection strategy to optimize training efficiency. A controllable level-of-detail (LOD) strategy explicitly regulates Gaussian density under a user-defined budget, enabling efficient training and rendering while maintaining high visual fidelity. The appearance transformation module mitigates the negative effects of appearance inconsistencies across images while enabling flexible adjustments. Additionally, we utilize enhancement modules, such as depth regularization, scale regularization, and antialiasing, to improve reconstruction fidelity. Experimental results demonstrate that our method effectively reconstructs urban-scale scenes and outperforms previous approaches in both efficiency and quality. The source code is available at: https://yzslab.github.io/REUrbanGS.
- Abstract(参考訳): 多視点撮影における外観変化に対してロバスト性を維持しつつ,都市景観の高速な再構築とリアルタイムレンダリングを可能にする枠組みを提案する。
我々のアプローチは、並列トレーニングのためのシーンパーティショニングから始まり、トレーニング効率を最適化するために可視性に基づく画像選択戦略を採用している。
制御可能なレベル・オブ・ディーテール(LOD)戦略は、ユーザ定義予算の下でガウス密度を明示的に規制し、高い視力を維持しながら効率的なトレーニングとレンダリングを可能にする。
外観変換モジュールは、画像間の外観不整合の負の効果を軽減し、フレキシブルな調整を可能にする。
さらに, 深度正則化, スケール正則化, アンチエイリアス化などの拡張モジュールを活用し, 復元精度を向上させる。
実験の結果,提案手法は都市規模のシーンを効果的に再構築し,効率と品質の両面で従来の手法より優れていることが示された。
ソースコードは、https://yzslab.github.io/REUrbanGS.comで入手できる。
関連論文リスト
- HoliGS: Holistic Gaussian Splatting for Embodied View Synthesis [59.25751939710903]
本稿では,長い単眼RGBビデオのエンボディドビュー合成に対処する,変形可能なガウススプラッティングフレームワークを提案する。
提案手法は,非可逆ガウス散乱変形ネットワークを利用して大規模動的環境を正確に再構築する。
その結果、現実のシナリオにおけるEVSの実用的でスケーラブルなソリューションが浮かび上がっています。
論文 参考訳(メタデータ) (2025-06-24T03:54:40Z) - Gaussian On-the-Fly Splatting: A Progressive Framework for Robust Near Real-Time 3DGS Optimization [8.422116335889163]
3D Gaussian Splatting (3DGS) は高速なリアルタイム性能で高忠実なレンダリングを実現する。
既存の方法は、完全なStructure-from-Motion (SfM)処理後のオフライントレーニングに依存している。
画像キャプチャ中にほぼリアルタイムで3DGSを最適化できるプログレッシブフレームワークであるOn-the-Fly GSを紹介する。
論文 参考訳(メタデータ) (2025-03-17T11:47:58Z) - Efficient Transformer for High Resolution Image Motion Deblurring [0.0]
本稿では,高分解能イメージモーションデブロアに対するRestormerアーキテクチャの総合的研究と改良について述べる。
モデル複雑性を18.4%削減し、最適化された注意機構によって性能を維持または改善するアーキテクチャ変更を導入する。
以上の結果から, 思考的アーキテクチャの単純化と学習戦略の強化が組み合わさって, より効率的かつ等しく機能的な作業モデルが得られることが示唆された。
論文 参考訳(メタデータ) (2025-01-30T14:58:33Z) - SWAG: Splatting in the Wild images with Appearance-conditioned Gaussians [2.2369578015657954]
暗黙の神経表現法は、未構造化画像から3Dシーンを学習する際、顕著な進歩を見せている。
非教師的手法でシーンオブオーダの存在を対処するために、過渡的なガウシアンを訓練する新しいメカニズムを導入する。
論文 参考訳(メタデータ) (2024-03-15T16:00:04Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z) - DynaST: Dynamic Sparse Transformer for Exemplar-Guided Image Generation [56.514462874501675]
本稿では,動的スパースアテンションに基づくトランスフォーマーモデルを提案する。
このアプローチの核心は、ある位置がフォーカスすべき最適なトークン数の変化をカバーすることに特化した、新しいダイナミックアテンションユニットです。
3つの応用、ポーズ誘導型人物画像生成、エッジベース顔合成、歪みのない画像スタイル転送の実験により、DynaSTは局所的な詳細において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-07-13T11:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。