論文の概要: CuriGS: Curriculum-Guided Gaussian Splatting for Sparse View Synthesis
- arxiv url: http://arxiv.org/abs/2511.16030v1
- Date: Thu, 20 Nov 2025 04:22:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.465449
- Title: CuriGS: Curriculum-Guided Gaussian Splatting for Sparse View Synthesis
- Title(参考訳): CuriGS:スパースビュー合成のためのカリキュラムガイド型ガウススプレイティング
- Authors: Zijian Wu, Mingfeng Jiang, Zidian Lin, Ying Song, Hanjie Ma, Qun Wu, Dongping Zhang, Guiyang Pu,
- Abstract要約: CuriGSは、3DGSを使ったスパースビュー3D再構成のためのカリキュラム誘導フレームワークである。
CuriGSは、学生ビューの導入によるスパースビュー合成のコア課題に対処する。
CuriGSは、忠実度と幾何整合性の両面において、最先端のベースラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 11.903120089824045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) has recently emerged as an efficient, high-fidelity representation for real-time scene reconstruction and rendering. However, extending 3DGS to sparse-view settings remains challenging because of supervision scarcity and overfitting caused by limited viewpoint coverage. In this paper, we present CuriGS, a curriculum-guided framework for sparse-view 3D reconstruction using 3DGS. CuriGS addresses the core challenge of sparse-view synthesis by introducing student views: pseudo-views sampled around ground-truth poses (teacher). For each teacher, we generate multiple groups of student views with different perturbation levels. During training, we follow a curriculum schedule that gradually unlocks higher perturbation level, randomly sampling candidate students from the active level to assist training. Each sampled student is regularized via depth-correlation and co-regularization, and evaluated using a multi-signal metric that combines SSIM, LPIPS, and an image-quality measure. For every teacher and perturbation level, we periodically retain the best-performing students and promote those that satisfy a predefined quality threshold to the training set, resulting in a stable augmentation of sparse training views. Experimental results show that CuriGS outperforms state-of-the-art baselines in both rendering fidelity and geometric consistency across various synthetic and real sparse-view scenes. Project page: https://zijian1026.github.io/CuriGS/
- Abstract(参考訳): 3D Gaussian Splatting (3DGS) は、リアルタイムのシーン再構成とレンダリングのための効率的で高忠実な表現として最近登場した。
しかし、3DGSをスパース・ビュー・セッティングに拡張することは、監督不足と視点範囲の制限による過度な適合のため、依然として困難である。
本稿では,3DGSを用いたスパースビュー3D再構成のためのカリキュラムガイドフレームワークであるCuriGSを提案する。
CuriGSは、学生の視点を導入することで、スパースビュー合成のコア課題に対処している。
各教師に対して、摂動レベルが異なる複数の生徒の視点を生成する。
学習中は、より高い摂動レベルを徐々に解き放つカリキュラムのスケジュールに従い、アクティブレベルからランダムに候補学生をサンプリングし、トレーニングを支援する。
SSIM,LPIPS,画像品質測定を併用した多信号メトリックを用いて,各学生は,深度相関と共同正規化によって正規化される。
すべての教師や摂動レベルにおいて、最高の成績の学生を定期的に保持し、事前定義された品質閾値を満たす生徒をトレーニングセットに促進し、スパーストレーニングビューを安定的に増強する。
実験の結果,CuriGSは様々な合成シーンと実シーンにおいて,忠実度と幾何整合性の両方において,最先端のベースラインよりも優れていた。
プロジェクトページ: https://zijian1026.github.io/CuriGS/
関連論文リスト
- Quantifying and Alleviating Co-Adaptation in Sparse-View 3D Gaussian Splatting [39.014517076251934]
3D Gaussian Splatting (3DGS) は、高密度ビュー環境下での新規なビュー合成において、印象的な性能を示した。
スパースビューのシナリオでは、トレーニングビューのリアルなレンダリングにもかかわらず、3DGSは時々、新しいビューで外見のアーティファクトを示す。
本稿では,スパースビュー3DGSの外観アーティファクトについて検討し,現在のアプローチの限界を明らかにする。
論文 参考訳(メタデータ) (2025-08-18T08:34:49Z) - HybridGS: Decoupling Transients and Statics with 2D and 3D Gaussian Splatting [47.67153284714988]
画像ごとの過渡的対象に対して2次元ガウスアンを用いて,ハイブリッドGSと呼ばれる新しいハイブリッド表現を提案する。
また、ロバストなトレーニングと高品質なビュー合成を実現するために、単純かつ効果的なマルチステージトレーニング戦略を提案する。
ベンチマークデータセットを用いた実験は、室内および屋外の両方のシーンにおいて、新しいビュー合成の最先端性能を示す。
論文 参考訳(メタデータ) (2024-12-05T03:20:35Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z) - Hierarchical Supervision and Shuffle Data Augmentation for 3D
Semi-Supervised Object Detection [90.32180043449263]
最先端の3Dオブジェクト検出器は通常、高品質な3Dアノテーションを備えた大規模データセットで訓練される。
自然な治療法は、限られた量のラベル付きサンプルと豊富なラベル付きサンプルを活用することで、半教師付き学習(SSL)を採用することである。
本稿では,HSSDA(Hierarchical Supervision and Shuffle Data Augmentation)の新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-04-04T02:09:32Z) - Warp Consistency for Unsupervised Learning of Dense Correspondences [116.56251250853488]
密接な対応を学習する上で重要な課題は、実画像対に対する地道整合の欠如である。
密な対応回帰のための教師なし学習目標であるWarp Consistencyを提案する。
私たちのアプローチは、MegaDepth、RobotCar、TSSなど、いくつかの挑戦的なベンチマークに新しい最先端を設定します。
論文 参考訳(メタデータ) (2021-04-07T17:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。