論文の概要: S2Gaussian: Sparse-View Super-Resolution 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2503.04314v1
- Date: Thu, 06 Mar 2025 10:58:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:59:30.568820
- Title: S2Gaussian: Sparse-View Super-Resolution 3D Gaussian Splatting
- Title(参考訳): S2Gaussian: Sparse-View Super-Resolution 3D Gaussian Splatting
- Authors: Yecong Wan, Mingwen Shao, Yuanshuo Cheng, Wangmeng Zuo,
- Abstract要約: S2Gaussianと呼ばれる新しいスパースビュー超高解像度3Dガウス撮影フレームワークを提案する。
実験は優れた結果を示し、特により一貫した幾何と細かな詳細を持つ新しい最先端のパフォーマンスを確立する。
- 参考スコア(独自算出の注目度): 47.75073170368562
- License:
- Abstract: In this paper, we aim ambitiously for a realistic yet challenging problem, namely, how to reconstruct high-quality 3D scenes from sparse low-resolution views that simultaneously suffer from deficient perspectives and clarity. Whereas existing methods only deal with either sparse views or low-resolution observations, they fail to handle such hybrid and complicated scenarios. To this end, we propose a novel Sparse-view Super-resolution 3D Gaussian Splatting framework, dubbed S2Gaussian, that can reconstruct structure-accurate and detail-faithful 3D scenes with only sparse and low-resolution views. The S2Gaussian operates in a two-stage fashion. In the first stage, we initially optimize a low-resolution Gaussian representation with depth regularization and densify it to initialize the high-resolution Gaussians through a tailored Gaussian Shuffle Split operation. In the second stage, we refine the high-resolution Gaussians with the super-resolved images generated from both original sparse views and pseudo-views rendered by the low-resolution Gaussians. In which a customized blur-free inconsistency modeling scheme and a 3D robust optimization strategy are elaborately designed to mitigate multi-view inconsistency and eliminate erroneous updates caused by imperfect supervision. Extensive experiments demonstrate superior results and in particular establishing new state-of-the-art performances with more consistent geometry and finer details.
- Abstract(参考訳): 本稿では,高精細な低解像度視点から高精細な3Dシーンを再構築し,同時に不明瞭な視点と明快さに苦しむ現実的かつ挑戦的な課題を,野心的に追求する。
既存のメソッドはスパースビューか低解像度の観測のみを扱うが、そのようなハイブリッドで複雑なシナリオを処理できない。
そこで本研究では,S2Gaussianとよばれる,スパース・ビューの超高解像度3Dガウス・スプレイティング・フレームワークを提案する。
S2ガウスは2段式で運用されている。
第1段階では、まず、深さ正則化を伴う低分解能ガウス表現を最適化し、それを密度化して、調整されたガウスシュッフルスプリット演算により高分解能ガウスを初期化する。
第2段階では,高分解能ガウス像を,低分解能ガウス像と低分解能ガウス像の両方から生成した超解像で精査する。
マルチビューの不整合を緩和し、不完全な監視による誤更新を解消するために、カスタマイズされたぼやけのない不整合モデルと3次元ロバストな最適化戦略を精巧に設計する。
大規模な実験は優れた結果を示し、特により一貫した幾何と細かな詳細を持つ新しい最先端のパフォーマンスを確立する。
関連論文リスト
- CrossView-GS: Cross-view Gaussian Splatting For Large-scale Scene Reconstruction [5.528874948395173]
3D Gaussian Splatting (3DGS) はシーンの表現と再構築に顕著な手法である。
両ブランチ融合に基づく大規模シーン再構成のための新しいクロスビューガウス分割法を提案する。
本手法は,最先端の手法と比較して,新規なビュー合成における優れた性能を実現する。
論文 参考訳(メタデータ) (2025-01-03T08:24:59Z) - GPS-Gaussian+: Generalizable Pixel-wise 3D Gaussian Splatting for Real-Time Human-Scene Rendering from Sparse Views [67.34073368933814]
スパースビューカメラ設定下での高解像度画像レンダリングのための一般化可能なガウススプラッティング手法を提案する。
我々は,人間のみのデータや人景データに基づいてガウスパラメータ回帰モジュールをトレーニングし,深度推定モジュールと共同で2次元パラメータマップを3次元空間に引き上げる。
いくつかのデータセットに対する実験により、我々の手法はレンダリング速度を超越しながら最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-18T08:18:44Z) - CityGaussianV2: Efficient and Geometrically Accurate Reconstruction for Large-Scale Scenes [53.107474952492396]
CityGaussianV2は大規模なシーン再構築のための新しいアプローチである。
分解段階の密度化・深さ回帰手法を実装し, ぼやけたアーチファクトを除去し, 収束を加速する。
本手法は, 視覚的品質, 幾何学的精度, ストレージ, トレーニングコストの両立を図っている。
論文 参考訳(メタデータ) (2024-11-01T17:59:31Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - SRGS: Super-Resolution 3D Gaussian Splatting [14.26021476067791]
本稿では,高分解能(HR)空間における最適化を実現するために,超解像3Dガウススティング(SRGS)を提案する。
サブピクセル制約はHR空間における視点の増大のために導入され、多重低解像度(LR)ビューのサブピクセル・クロスビュー情報を利用する。
MIP-NeRF 360 や Tanks & Temples のような挑戦的なデータセットにおいて,HRNVS のレンダリング品質は LR 入力のみで向上する。
論文 参考訳(メタデータ) (2024-04-16T06:58:30Z) - CoherentGS: Sparse Novel View Synthesis with Coherent 3D Gaussians [18.42203035154126]
2次元画像空間で制御できる構造付きガウス表現を導入する。
次に、ガウス群、特にその位置を制約し、最適化中に独立に動くのを防ぐ。
我々は,様々な場面における最先端のスパースビュー NeRF ベースのアプローチと比較して,顕著な改善を示した。
論文 参考訳(メタデータ) (2024-03-28T15:27:13Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - GPS-Gaussian: Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis [70.24111297192057]
我々は、文字の新たなビューをリアルタイムに合成するための新しいアプローチ、GPS-Gaussianを提案する。
提案手法は,スパースビューカメラ設定下での2K解像度のレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z) - Neural Parametric Gaussians for Monocular Non-Rigid Object Reconstruction [8.260048622127913]
モノクロビデオから動的オブジェクトを再構築することは、過小評価され難解な問題である。
本稿では,2段階のアプローチを取り入れたニューラルパラメトリックガウス(NPG)を提案する。
NPGは、特にマルチビューの手がかりがほとんどない挑戦的なシナリオにおいて、以前の研究よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2023-12-02T18:06:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。