論文の概要: Pi-GS: Sparse-View Gaussian Splatting with Dense π^3 Initialization
- arxiv url: http://arxiv.org/abs/2602.03327v1
- Date: Tue, 03 Feb 2026 09:55:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.374468
- Title: Pi-GS: Sparse-View Gaussian Splatting with Dense π^3 Initialization
- Title(参考訳): Pi-GS: 密度π^3初期化によるスパースビューガウススメッティング
- Authors: Manuel Hofer, Markus Steinberger, Thomas Köhler,
- Abstract要約: 本稿では,基準自由点雲推定ネットワーク3を用いたロバストな手法を提案する。
我々は、不確実性誘導深度監視、正規整合損失、および深度ゆらぎを用いる。
提案手法は,タンク・アンド・テンプル,LLFF,DTU,MipNeRF360データセットの最先端性能を実現する。
- 参考スコア(独自算出の注目度): 5.5775900281150514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Novel view synthesis has evolved rapidly, advancing from Neural Radiance Fields to 3D Gaussian Splatting (3DGS), which offers real-time rendering and rapid training without compromising visual fidelity. However, 3DGS relies heavily on accurate camera poses and high-quality point cloud initialization, which are difficult to obtain in sparse-view scenarios. While traditional Structure from Motion (SfM) pipelines often fail in these settings, existing learning-based point estimation alternatives typically require reliable reference views and remain sensitive to pose or depth errors. In this work, we propose a robust method utilizing π^3, a reference-free point cloud estimation network. We integrate dense initialization from π^3 with a regularization scheme designed to mitigate geometric inaccuracies. Specifically, we employ uncertainty-guided depth supervision, normal consistency loss, and depth warping. Experimental results demonstrate that our approach achieves state-of-the-art performance on the Tanks and Temples, LLFF, DTU, and MipNeRF360 datasets.
- Abstract(参考訳): 新しいビュー合成は急速に進化し、ニューラル・ラジアン・フィールドから3Dガウス・スプレイティング(3DGS)へと進化した。
しかし、3DGSは、スパースビューのシナリオでは入手が困難である、正確なカメラポーズと高品質のクラウド初期化に大きく依存している。
従来のStructure from Motion(SfM)パイプラインはこれらの設定で失敗することが多いが、既存の学習ベースのポイント推定代替手段は通常、信頼できる参照ビューを必要とし、ポーズや深さエラーに敏感である。
本研究では,参照自由点雲推定ネットワークであるπ^3を用いたロバストな手法を提案する。
π^3 からの密接な初期化と幾何学的不正確性を緩和する正規化スキームを統合する。
具体的には、不確実性誘導深度監視、正規整合損失、深度ゆらぎを用いる。
実験により,本手法は,タンクとテンプル,LLFF,DTU,MipNeRF360データセット上での最先端性能を実現することを示す。
関連論文リスト
- Extreme Views: 3DGS Filter for Novel View Synthesis from Out-of-Distribution Camera Poses [3.007949058551534]
トレーニングデータ分布の外にカメラ位置から3Dガウススプラッティング(3DGS)モデルを見る場合、かなりの視覚ノイズが発生することが一般的である。
本稿では,この問題に対処する新しいリアルタイムレンダリング対応フィルタリング手法を提案する。
提案手法は,既存のNeRF(Neural Radiance Field)ベースのアプローチと比較して,視覚的品質,リアリズム,一貫性を著しく向上する。
論文 参考訳(メタデータ) (2025-10-22T21:09:16Z) - Pseudo Depth Meets Gaussian: A Feed-forward RGB SLAM Baseline [64.42938561167402]
本稿では,3次元ガウス型SLAMとフィードフォワードリカレント予測モジュールを組み合わせたオンライン3次元再構成手法を提案する。
このアプローチは、遅いテスト時間の最適化を高速なネットワーク推論に置き換え、トラッキング速度を大幅に改善する。
提案手法は,最先端のSplaTAMと同等の性能を示しながら,追跡時間を90%以上削減する。
論文 参考訳(メタデータ) (2025-08-06T16:16:58Z) - Revisiting Depth Representations for Feed-Forward 3D Gaussian Splatting [57.43483622778394]
本稿では,事前学習した変圧器によって予測される点マップに基づく新しい正規化損失PM-Lossを紹介する。
改良された深度マップにより,様々なアーキテクチャやシーンのフィードフォワード3DGSを大幅に改善する。
論文 参考訳(メタデータ) (2025-06-05T17:58:23Z) - NexusGS: Sparse View Synthesis with Epipolar Depth Priors in 3D Gaussian Splatting [45.18382361038417]
スパースビュー画像からの新規なビュー合成を促進する3DGSベースのアプローチであるNexusGSを提案する。
本手法では3DGSを高密度点雲で初期化する新しい点雲密度化戦略を導入する。
実験によると、NexusGSは深度精度とレンダリング品質を著しく向上し、最先端の手法をかなり上回っている。
論文 参考訳(メタデータ) (2025-03-24T15:40:17Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - MVPGS: Excavating Multi-view Priors for Gaussian Splatting from Sparse Input Views [27.47491233656671]
新規ビュー合成(NVS)は3次元視覚アプリケーションにおいて重要な課題である。
我々は,3次元ガウススプラッティングに基づくマルチビュー先行を探索する数ショットNVS法である textbfMVPGS を提案する。
実験により,提案手法はリアルタイムレンダリング速度で最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2024-09-22T05:07:20Z) - LoopSparseGS: Loop Based Sparse-View Friendly Gaussian Splatting [18.682864169561498]
LoopSparseGSは、疎結合なビュー合成タスクのためのループベースの3DGSフレームワークである。
Sparse-Friended Smpling (SFS) 戦略を導入し,ガウス楕円体を過剰に処理し,画素誤差が大きくなった。
4つのデータセットの実験により、LoopSparseGSはスパース・インプット・ノベルビューの合成において既存の最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-08-01T03:26:50Z) - Virtual Normal: Enforcing Geometric Constraints for Accurate and Robust
Depth Prediction [87.08227378010874]
深度予測における高次3次元幾何学的制約の重要性を示す。
単純な幾何学的制約を強制する損失項を設計することにより、単眼深度推定の精度とロバスト性を大幅に改善する。
The-of-the-art results of learning metric depth on NYU Depth-V2 and KITTI。
論文 参考訳(メタデータ) (2021-03-07T00:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。