論文の概要: SuperGS: Consistent and Detailed 3D Super-Resolution Scene Reconstruction via Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2505.18649v1
- Date: Sat, 24 May 2025 11:33:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.566029
- Title: SuperGS: Consistent and Detailed 3D Super-Resolution Scene Reconstruction via Gaussian Splatting
- Title(参考訳): SuperGS: ガウススプラッティングによる3次元超解像の再現
- Authors: Shiyun Xie, Zhiru Wang, Yinghao Zhu, Xu Wang, Chengwei Pan, Xiwang Dong,
- Abstract要約: 3D Gaussian Splatting (3DGS)は、新しいビュー合成(NVS)に優れ、リアルタイムレンダリング機能と優れた品質を備えている。
しかし、低解像度の入力ビューから派生したプリミティブの粗い性質のため、高解像度の新規ビュー合成(HRNVS)の課題に直面している。
2段階の粗大なトレーニングフレームワークで設計したScaffold-GSの拡張であるSuperGSを提案する。
- 参考スコア(独自算出の注目度): 6.309174895120047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, 3D Gaussian Splatting (3DGS) has excelled in novel view synthesis (NVS) with its real-time rendering capabilities and superior quality. However, it encounters challenges for high-resolution novel view synthesis (HRNVS) due to the coarse nature of primitives derived from low-resolution input views. To address this issue, we propose SuperGS, an expansion of Scaffold-GS designed with a two-stage coarse-to-fine training framework. In the low-resolution stage, we introduce a latent feature field to represent the low-resolution scene, which serves as both the initialization and foundational information for super-resolution optimization. In the high-resolution stage, we propose a multi-view consistent densification strategy that backprojects high-resolution depth maps based on error maps and employs a multi-view voting mechanism, mitigating ambiguities caused by multi-view inconsistencies in the pseudo labels provided by 2D prior models while avoiding Gaussian redundancy. Furthermore, we model uncertainty through variational feature learning and use it to guide further scene representation refinement and adjust the supervisory effect of pseudo-labels, ensuring consistent and detailed scene reconstruction. Extensive experiments demonstrate that SuperGS outperforms state-of-the-art HRNVS methods on both forward-facing and 360-degree datasets.
- Abstract(参考訳): 近年,3D Gaussian Splatting (3DGS) は,そのリアルタイムレンダリング機能と優れた品質で,新しいビュー合成(NVS)に優れています。
しかし、低解像度の入力ビューから派生したプリミティブの粗い性質のため、高解像度の新規ビュー合成(HRNVS)の課題に直面している。
この問題に対処するために,2段階の粗大なトレーニングフレームワークを備えたScaffold-GSの拡張であるSuperGSを提案する。
低分解能の段階では、低分解能シーンを表す潜在特徴場を導入し、超分解能最適化のための初期化情報と基礎情報の両方を提供する。
高解像度の段階では、誤差マップに基づいて高解像度深度マップをバックプロジェクションし、ガウス的冗長性を避けつつ、2次元先行モデルで提供される擬似ラベルの多視点不整合による曖昧性を緩和する多視点投票機構を用いる多視点一貫したデシフィケーション戦略を提案する。
さらに、変分特徴学習を通じて不確実性をモデル化し、さらにシーン表現の洗練を誘導し、擬似ラベルの監督効果を調整し、一貫性と詳細なシーン再構築を確実にする。
大規模な実験により、SuperGSは前方と360度の両方のデータセットで最先端のHRNVSメソッドより優れています。
関連論文リスト
- S2Gaussian: Sparse-View Super-Resolution 3D Gaussian Splatting [47.75073170368562]
S2Gaussianと呼ばれる新しいスパースビュー超高解像度3Dガウス撮影フレームワークを提案する。
実験は優れた結果を示し、特により一貫した幾何と細かな詳細を持つ新しい最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2025-03-06T10:58:26Z) - CrossView-GS: Cross-view Gaussian Splatting For Large-scale Scene Reconstruction [5.528874948395173]
マルチブランチ構築と融合に基づく大規模シーン再構築のための新しいクロスビューガウス分割法を提案する。
本手法は,最先端の手法と比較して,新規なビュー合成における優れた性能を実現する。
論文 参考訳(メタデータ) (2025-01-03T08:24:59Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - SuperGS: Super-Resolution 3D Gaussian Splatting Enhanced by Variational Residual Features and Uncertainty-Augmented Learning [6.309174895120047]
Super-Resolution 3DGS (SuperGS) は、2段階の粗大なトレーニングフレームワークで設計された3DGSの拡張である。
SuperGSは、低解像度入力のみを使用して、現実世界と合成データセットの両方で最先端のHRNVSメソッドを超越している。
論文 参考訳(メタデータ) (2024-10-03T15:18:28Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - Motion-aware 3D Gaussian Splatting for Efficient Dynamic Scene Reconstruction [89.53963284958037]
動的シーン再構築のための新しい動き認識拡張フレームワークを提案する。
具体的には,まず3次元ガウス運動と画素レベルの流れの対応性を確立する。
より厳密な最適化問題を示す先行的な変形に基づくパラダイムに対して,過渡対応変形補助モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-18T03:46:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。