論文の概要: VGNC: Reducing the Overfitting of Sparse-view 3DGS via Validation-guided Gaussian Number Control
- arxiv url: http://arxiv.org/abs/2504.14548v1
- Date: Sun, 20 Apr 2025 09:38:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 23:50:09.427125
- Title: VGNC: Reducing the Overfitting of Sparse-view 3DGS via Validation-guided Gaussian Number Control
- Title(参考訳): VGNC:バリデーション誘導ガウス数制御によるスパースビュー3DGSのオーバーフィッティング削減
- Authors: Lifeng Lin, Rongfeng Lu, Quan Chen, Haofan Ren, Ming Lu, Yaoqi Sun, Chenggang Yan, Anke Xue,
- Abstract要約: 生成的新規ビュー合成(NVS)モデルに基づくバリデーション誘導ガウス数制御(VGNC)手法を提案する。
これは、スパースビュー3DGSの過剰適合問題を生成検証画像で緩和する最初の試みである。
- 参考スコア(独自算出の注目度): 25.771146052678368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse-view 3D reconstruction is a fundamental yet challenging task in practical 3D reconstruction applications. Recently, many methods based on the 3D Gaussian Splatting (3DGS) framework have been proposed to address sparse-view 3D reconstruction. Although these methods have made considerable advancements, they still show significant issues with overfitting. To reduce the overfitting, we introduce VGNC, a novel Validation-guided Gaussian Number Control (VGNC) approach based on generative novel view synthesis (NVS) models. To the best of our knowledge, this is the first attempt to alleviate the overfitting issue of sparse-view 3DGS with generative validation images. Specifically, we first introduce a validation image generation method based on a generative NVS model. We then propose a Gaussian number control strategy that utilizes generated validation images to determine the optimal Gaussian numbers, thereby reducing the issue of overfitting. We conducted detailed experiments on various sparse-view 3DGS baselines and datasets to evaluate the effectiveness of VGNC. Extensive experiments show that our approach not only reduces overfitting but also improves rendering quality on the test set while decreasing the number of Gaussian points. This reduction lowers storage demands and accelerates both training and rendering. The code will be released.
- Abstract(参考訳): スパースビュー3次元再構成は実用的3次元再構成の基本的な課題である。
近年,スパースビュー3次元再構成に対処するために,3次元ガウススティング(3DGS)フレームワークに基づく多くの手法が提案されている。
これらの手法はかなりの進歩を遂げてきたが、それでも過度な適合には重大な問題がある。
オーバーフィッティングを減らすために,生成的新規ビュー合成(NVS)モデルに基づく新しいバリデーション誘導ガウス数制御(VGNC)手法であるVGNCを導入する。
我々の知る限り、これはスパースビュー3DGSの過剰適合問題を生成検証画像で緩和する最初の試みである。
具体的には,生成NVSモデルに基づく検証画像生成手法を提案する。
次に、生成した検証画像を用いて最適なガウス数を決定するガウス数制御戦略を提案し、オーバーフィッティングの問題を軽減した。
VGNCの有効性を評価するために,様々なスパースビュー3DGSベースラインとデータセットについて詳細な実験を行った。
大規模な実験により,本手法はオーバーフィッティングを減少させるだけでなく,ガウス点数を減少させながら,テストセットのレンダリング品質も向上することが示された。
この削減はストレージの要求を減らし、トレーニングとレンダリングの両方を高速化する。
コードはリリースされます。
関連論文リスト
- DropGaussian: Structural Regularization for Sparse-view Gaussian Splatting [5.216151302783165]
本稿では,DropGaussianと呼ばれる3次元ガウススプラッティングの簡易な変更による事前自由化手法を提案する。
具体的には、トレーニングプロセス中にランダムにガウスをドロップアウトで除去し、非除外ガウスがより大きな勾配を持つようにします。
このような単純な操作は、オーバーフィッティング問題を効果的に軽減し、新規なビュー合成の品質を高める。
論文 参考訳(メタデータ) (2025-04-01T13:23:34Z) - ProtoGS: Efficient and High-Quality Rendering with 3D Gaussian Prototypes [81.48624894781257]
3D Gaussian Splatting (3DGS) は、新しいビュー合成において大きな進歩を遂げてきたが、ガウスプリミティブのかなりの数によって制限されている。
近年の手法では、密度の高いガウスの記憶容量を圧縮することでこの問題に対処しているが、レンダリングの品質と効率の維持には失敗している。
本稿では,ガウスの原始体を表現するためにガウスのプロトタイプを学習するProtoGSを提案し,視覚的品質を犠牲にすることなくガウスの総量を大幅に削減する。
論文 参考訳(メタデータ) (2025-03-21T18:55:14Z) - NovelGS: Consistent Novel-view Denoising via Large Gaussian Reconstruction Model [57.92709692193132]
NovelGSは、スパースビュー画像が与えられたガウススプラッティングの拡散モデルである。
我々は3Dガウスを生成するためにトランスフォーマーネットワークを経由する新しい視点を利用する。
論文 参考訳(メタデータ) (2024-11-25T07:57:17Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - UniGS: Modeling Unitary 3D Gaussians for Novel View Synthesis from Sparse-view Images [20.089890859122168]
我々は,新しい3次元ガウス再構成と新しいビュー合成モデルであるUniGSを紹介する。
UniGSは、任意の数のスパースビュー画像から3Dガウスの高忠実度表現を予測する。
論文 参考訳(メタデータ) (2024-10-17T03:48:02Z) - MVPGS: Excavating Multi-view Priors for Gaussian Splatting from Sparse Input Views [27.47491233656671]
新規ビュー合成(NVS)は3次元視覚アプリケーションにおいて重要な課題である。
我々は,3次元ガウススプラッティングに基づくマルチビュー先行を探索する数ショットNVS法である textbfMVPGS を提案する。
実験により,提案手法はリアルタイムレンダリング速度で最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2024-09-22T05:07:20Z) - Effective Rank Analysis and Regularization for Enhanced 3D Gaussian Splatting [33.01987451251659]
3D Gaussian Splatting(3DGS)は、高品質な3D再構成によるリアルタイムレンダリングが可能な有望な技術として登場した。
その可能性にもかかわらず、3DGSは針状アーティファクト、準最適ジオメトリー、不正確な正常といった課題に遭遇する。
正規化として有効ランクを導入し、ガウスの構造を制約する。
論文 参考訳(メタデータ) (2024-06-17T15:51:59Z) - R$^2$-Gaussian: Rectifying Radiative Gaussian Splatting for Tomographic Reconstruction [53.19869886963333]
3次元ガウススプラッティング(3DGS)は画像のレンダリングと表面再構成において有望な結果を示した。
本稿では,Sparse-viewトモグラフィ再構成のための3DGSベースのフレームワークであるR2$-Gaussianを紹介する。
論文 参考訳(メタデータ) (2024-05-31T08:39:02Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - AbsGS: Recovering Fine Details for 3D Gaussian Splatting [10.458776364195796]
3D Gaussian Splatting (3D-GS) 技術は3Dプリミティブを相違可能なガウス化と組み合わせて高品質な新規ビュー結果を得る。
しかし、3D-GSは、高頻度の詳細を含む複雑なシーンで過度に再構成の問題に悩まされ、ぼやけた描画画像に繋がる。
本稿では,前述の人工物,すなわち勾配衝突の原因を包括的に分析する。
我々の戦略は過度に再構成された地域のガウス人を効果的に同定し、分割して細部を復元する。
論文 参考訳(メタデータ) (2024-04-16T11:44:12Z) - Relaxing Accurate Initialization Constraint for 3D Gaussian Splatting [29.58220473268378]
我々は,3次元ガウス平滑化のための正確な初期化制約を導出する RAIN-GS という新しい最適化手法を提案する。
RAIN-GSは、準最適点雲(ランダム点雲など)から3Dガウスを訓練することに成功している。
ランダムポイントクラウドでトレーニングされたRAIN-GSは、正確なSfMポイントクラウドでトレーニングされた3DGSよりも高いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-14T14:04:21Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。