論文の概要: DropGaussian: Structural Regularization for Sparse-view Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2504.00773v1
- Date: Tue, 01 Apr 2025 13:23:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 15:43:09.103508
- Title: DropGaussian: Structural Regularization for Sparse-view Gaussian Splatting
- Title(参考訳): DropGaussian: Sparse-view Gaussian Splattingのための構造正規化
- Authors: Hyunwoo Park, Gun Ryu, Wonjun Kim,
- Abstract要約: 本稿では,DropGaussianと呼ばれる3次元ガウススプラッティングの簡易な変更による事前自由化手法を提案する。
具体的には、トレーニングプロセス中にランダムにガウスをドロップアウトで除去し、非除外ガウスがより大きな勾配を持つようにします。
このような単純な操作は、オーバーフィッティング問題を効果的に軽減し、新規なビュー合成の品質を高める。
- 参考スコア(独自算出の注目度): 5.216151302783165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, 3D Gaussian splatting (3DGS) has gained considerable attentions in the field of novel view synthesis due to its fast performance while yielding the excellent image quality. However, 3DGS in sparse-view settings (e.g., three-view inputs) often faces with the problem of overfitting to training views, which significantly drops the visual quality of novel view images. Many existing approaches have tackled this issue by using strong priors, such as 2D generative contextual information and external depth signals. In contrast, this paper introduces a prior-free method, so-called DropGaussian, with simple changes in 3D Gaussian splatting. Specifically, we randomly remove Gaussians during the training process in a similar way of dropout, which allows non-excluded Gaussians to have larger gradients while improving their visibility. This makes the remaining Gaussians to contribute more to the optimization process for rendering with sparse input views. Such simple operation effectively alleviates the overfitting problem and enhances the quality of novel view synthesis. By simply applying DropGaussian to the original 3DGS framework, we can achieve the competitive performance with existing prior-based 3DGS methods in sparse-view settings of benchmark datasets without any additional complexity. The code and model are publicly available at: https://github.com/DCVL-3D/DropGaussian release.
- Abstract(参考訳): 近年, 3次元ガウススプラッティング(3DGS)は, 優れた画質を保ちながら, 高速な画像合成の分野で大きな注目を集めている。
しかし、スパースビュー設定の3DGS(例:3ビューインプット)は、しばしば、トレーニングビューに過度に適合する問題に直面し、新しいビューイメージの視覚的品質を著しく低下させる。
既存の多くのアプローチでは、2次元生成コンテキスト情報や外部深度信号など、強力な事前情報を使用することでこの問題に対処している。
対照的に,本研究ではDropGaussianと呼ばれる,3次元ガウススプラッティングの簡易な変更による事前自由化手法を提案する。
具体的には、トレーニングプロセス中のガウス人を同様にドロップアウトでランダムに除去し、非除外ガウス人は視認性を改善しながら勾配を大きくすることができる。
これにより、残りのガウス人は、スパース入力ビューでレンダリングする最適化プロセスにもっと貢献することができる。
このような単純な操作は、オーバーフィッティング問題を効果的に軽減し、新規なビュー合成の品質を高める。
従来の3DGSフレームワークにDropGaussianを適用することで、既存の3DGSメソッドとの競合性能を、余分な複雑さを伴わずに、ベンチマークデータセットのスパースビュー設定で達成できる。
コードとモデルは、https://github.com/DCVL-3D/DropGaussianリリースで公開されている。
関連論文リスト
- VGNC: Reducing the Overfitting of Sparse-view 3DGS via Validation-guided Gaussian Number Control [25.771146052678368]
生成的新規ビュー合成(NVS)モデルに基づくバリデーション誘導ガウス数制御(VGNC)手法を提案する。
これは、スパースビュー3DGSの過剰適合問題を生成検証画像で緩和する最初の試みである。
論文 参考訳(メタデータ) (2025-04-20T09:38:02Z) - DropoutGS: Dropping Out Gaussians for Better Sparse-view Rendering [45.785618745095164]
3D Gaussian Splatting (3DGS) は新規なビュー合成において有望な結果を示した。
トレーニングビューの数が減少するにつれて、新しいビュー合成タスクは、非常に過小評価された問題に格段に低下する。
オーバーフィッティングを緩和する低複雑さモデルの利点を生かしたランダムドロップアウト正規化(RDR)を提案する。
さらに、これらのモデルに高周波の詳細がないことを補うため、エッジ誘導分割戦略(ESS)を開発した。
論文 参考訳(メタデータ) (2025-04-13T09:17:21Z) - NovelGS: Consistent Novel-view Denoising via Large Gaussian Reconstruction Model [57.92709692193132]
NovelGSは、スパースビュー画像が与えられたガウススプラッティングの拡散モデルである。
我々は3Dガウスを生成するためにトランスフォーマーネットワークを経由する新しい視点を利用する。
論文 参考訳(メタデータ) (2024-11-25T07:57:17Z) - PixelGaussian: Generalizable 3D Gaussian Reconstruction from Arbitrary Views [116.10577967146762]
PixelGaussianは、任意の視点から一般化可能な3Dガウス再構成を学習するための効率的なフレームワークである。
提案手法は,様々な視点によく一般化した最先端性能を実現する。
論文 参考訳(メタデータ) (2024-10-24T17:59:58Z) - Effective Rank Analysis and Regularization for Enhanced 3D Gaussian Splatting [33.01987451251659]
3D Gaussian Splatting(3DGS)は、高品質な3D再構成によるリアルタイムレンダリングが可能な有望な技術として登場した。
その可能性にもかかわらず、3DGSは針状アーティファクト、準最適ジオメトリー、不正確な正常といった課題に遭遇する。
正規化として有効ランクを導入し、ガウスの構造を制約する。
論文 参考訳(メタデータ) (2024-06-17T15:51:59Z) - DOGS: Distributed-Oriented Gaussian Splatting for Large-Scale 3D Reconstruction Via Gaussian Consensus [56.45194233357833]
3DGSを分散訓練するDoGaussianを提案する。
大規模シーンで評価すると,3DGSのトレーニングを6回以上高速化する。
論文 参考訳(メタデータ) (2024-05-22T19:17:58Z) - AbsGS: Recovering Fine Details for 3D Gaussian Splatting [10.458776364195796]
3D Gaussian Splatting (3D-GS) 技術は3Dプリミティブを相違可能なガウス化と組み合わせて高品質な新規ビュー結果を得る。
しかし、3D-GSは、高頻度の詳細を含む複雑なシーンで過度に再構成の問題に悩まされ、ぼやけた描画画像に繋がる。
本稿では,前述の人工物,すなわち勾配衝突の原因を包括的に分析する。
我々の戦略は過度に再構成された地域のガウス人を効果的に同定し、分割して細部を復元する。
論文 参考訳(メタデータ) (2024-04-16T11:44:12Z) - CoherentGS: Sparse Novel View Synthesis with Coherent 3D Gaussians [18.42203035154126]
2次元画像空間で制御できる構造付きガウス表現を導入する。
次に、ガウス群、特にその位置を制約し、最適化中に独立に動くのを防ぐ。
我々は,様々な場面における最先端のスパースビュー NeRF ベースのアプローチと比較して,顕著な改善を示した。
論文 参考訳(メタデータ) (2024-03-28T15:27:13Z) - Relaxing Accurate Initialization Constraint for 3D Gaussian Splatting [29.58220473268378]
我々は,3次元ガウス平滑化のための正確な初期化制約を導出する RAIN-GS という新しい最適化手法を提案する。
RAIN-GSは、準最適点雲(ランダム点雲など)から3Dガウスを訓練することに成功している。
ランダムポイントクラウドでトレーニングされたRAIN-GSは、正確なSfMポイントクラウドでトレーニングされた3DGSよりも高いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-14T14:04:21Z) - Spec-Gaussian: Anisotropic View-Dependent Appearance for 3D Gaussian Splatting [55.71424195454963]
Spec-Gaussian は球面調和の代わりに異方性球面ガウス場を利用するアプローチである。
実験結果から,本手法はレンダリング品質の面で既存の手法を超越していることが示された。
この改良は、3D GSの適用性を高めて、特異面と異方面の複雑なシナリオを扱う。
論文 参考訳(メタデータ) (2024-02-24T17:22:15Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - GaussianObject: High-Quality 3D Object Reconstruction from Four Views with Gaussian Splatting [82.29476781526752]
高度にスパースな視点から3Dオブジェクトを再構成・レンダリングすることは、3Dビジョン技術の応用を促進する上で非常に重要である。
GaussianObjectは、Gaussian splattingで3Dオブジェクトを表現してレンダリングするフレームワークで、4つの入力イメージだけで高いレンダリング品質を実現する。
GaussianObjectは、MipNeRF360、OmniObject3D、OpenIllumination、および私たちが収集した未提示画像など、いくつかの挑戦的なデータセットで評価されている。
論文 参考訳(メタデータ) (2024-02-15T18:42:33Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。