論文の概要: FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2503.22986v1
- Date: Sat, 29 Mar 2025 06:22:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:36:08.624024
- Title: FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction
- Title(参考訳): FreeSplat++: 効率的な室内シーン再構築のための一般化可能な3次元ガウススプラッティング
- Authors: Yunsong Wang, Tianxin Huang, Hanlin Chen, Gim Hee Lee,
- Abstract要約: FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
- 参考スコア(独自算出の注目度): 50.534213038479926
- License:
- Abstract: Recently, the integration of the efficient feed-forward scheme into 3D Gaussian Splatting (3DGS) has been actively explored. However, most existing methods focus on sparse view reconstruction of small regions and cannot produce eligible whole-scene reconstruction results in terms of either quality or efficiency. In this paper, we propose FreeSplat++, which focuses on extending the generalizable 3DGS to become an alternative approach to large-scale indoor whole-scene reconstruction, which has the potential of significantly accelerating the reconstruction speed and improving the geometric accuracy. To facilitate whole-scene reconstruction, we initially propose the Low-cost Cross-View Aggregation framework to efficiently process extremely long input sequences. Subsequently, we introduce a carefully designed pixel-wise triplet fusion method to incrementally aggregate the overlapping 3D Gaussian primitives from multiple views, adaptively reducing their redundancy. Furthermore, we propose a weighted floater removal strategy that can effectively reduce floaters, which serves as an explicit depth fusion approach that is crucial in whole-scene reconstruction. After the feed-forward reconstruction of 3DGS primitives, we investigate a depth-regularized per-scene fine-tuning process. Leveraging the dense, multi-view consistent depth maps obtained during the feed-forward prediction phase for an extra constraint, we refine the entire scene's 3DGS primitive to enhance rendering quality while preserving geometric accuracy. Extensive experiments confirm that our FreeSplat++ significantly outperforms existing generalizable 3DGS methods, especially in whole-scene reconstructions. Compared to conventional per-scene optimized 3DGS approaches, our method with depth-regularized per-scene fine-tuning demonstrates substantial improvements in reconstruction accuracy and a notable reduction in training time.
- Abstract(参考訳): 近年,効率的なフィードフォワード方式を3次元ガウススプラッティング(3DGS)に統合する研究が盛んに行われている。
しかし, 既存の手法は, 小地域を疎視的に再現することに集中しており, 品質と効率の両面において, 適用可能な全シーンの再構築結果が得られない。
本稿では,一般化可能な3DGSを拡張したFreeSplat++を提案し,大規模な屋内全シーン再構築への代替アプローチとして,再現速度を著しく向上し,幾何精度を向上する可能性を秘めている。
そこで我々はまず,非常に長い入力シーケンスを効率的に処理する低コストなクロスビューアグリゲーションフレームワークを提案する。
次に,重なり合う3次元ガウスプリミティブを複数のビューから段階的に集約し,それらの冗長性を適応的に低減する画素ワイドトリプルト融合法を提案する。
さらに,フローターを効果的に削減できる重み付きフローター除去戦略を提案する。
3DGSプリミティブのフィードフォワード再構成後,深度調整したシーンごとの微調整プロセスについて検討した。
付加制約のフィードフォワード予測フェーズにおいて得られた密集した多視点一貫した深度マップを利用して,シーン全体の3DGSプリミティブを洗練し,レンダリング精度を向上し,幾何的精度を維持した。
大規模な実験により、FreeSplat++は既存の一般化可能な3DGSメソッド、特に全シーンの再構築よりも大幅に優れていたことが確認された。
従来の3DGS手法と比較して, 深度調整による微調整は再現精度が向上し, トレーニング時間も大幅に短縮された。
関連論文リスト
- PG-SAG: Parallel Gaussian Splatting for Fine-Grained Large-Scale Urban Buildings Reconstruction via Semantic-Aware Grouping [6.160345720038265]
本稿では,分割処理とカーネル最適化の両方にセマンティックキューをフル活用した並列ガウス分割手法PG-SAGを提案する。
その結果, 建物表面の再構成におけるPG-SAGの優れた性能を示すことができた。
論文 参考訳(メタデータ) (2025-01-03T07:40:16Z) - ResGS: Residual Densification of 3D Gaussian for Efficient Detail Recovery [11.706262924395768]
3D-GSは、しばしば豊富な詳細と完全な幾何学を捉えるのに苦労する。
本稿では, 残留分断法を新たに導入し, 残留分断法としてガウシアンを付加した。
提案手法は, 詳細を適応的に検索し, 欠落した幾何を補うとともに, 進歩的な洗練を可能にする。
論文 参考訳(メタデータ) (2024-12-10T13:19:27Z) - DyGASR: Dynamic Generalized Exponential Splatting with Surface Alignment for Accelerated 3D Mesh Reconstruction [1.2891210250935148]
従来の3次元ガウス関数の代わりに一般化指数関数を用いて粒子数を減少させるDyGASRを提案する。
また,GSR(Generalized Surface Regularization)を導入し,各点雲の最小のスケーリングベクトルをゼロにする。
提案手法は既存の3DGSベースのメッシュ再構成手法を超越し,25%の高速化,30%のメモリ使用量の削減を実現している。
論文 参考訳(メタデータ) (2024-11-14T03:19:57Z) - TranSplat: Generalizable 3D Gaussian Splatting from Sparse Multi-View Images with Transformers [14.708092244093665]
我々は,正確な局所特徴マッチングを導くために,予測深度信頼マップを利用する戦略を開発する。
本稿では,RealEstate10KベンチマークとACIDベンチマークの両方で最高の性能を示すTranSplatという新しいG-3DGS手法を提案する。
論文 参考訳(メタデータ) (2024-08-25T08:37:57Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。