論文の概要: Quantifying and Alleviating Co-Adaptation in Sparse-View 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2508.12720v1
- Date: Mon, 18 Aug 2025 08:34:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.085736
- Title: Quantifying and Alleviating Co-Adaptation in Sparse-View 3D Gaussian Splatting
- Title(参考訳): Sparse-View 3D Gaussian Splattingにおける共適応の定量化と緩和
- Authors: Kangjie Chen, Yingji Zhong, Zhihao Li, Jiaqi Lin, Youyu Chen, Minghan Qin, Haoqian Wang,
- Abstract要約: 3D Gaussian Splatting (3DGS) は、高密度ビュー環境下での新規なビュー合成において、印象的な性能を示した。
スパースビューのシナリオでは、トレーニングビューのリアルなレンダリングにもかかわらず、3DGSは時々、新しいビューで外見のアーティファクトを示す。
本稿では,スパースビュー3DGSの外観アーティファクトについて検討し,現在のアプローチの限界を明らかにする。
- 参考スコア(独自算出の注目度): 21.32560823015573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) has demonstrated impressive performance in novel view synthesis under dense-view settings. However, in sparse-view scenarios, despite the realistic renderings in training views, 3DGS occasionally manifests appearance artifacts in novel views. This paper investigates the appearance artifacts in sparse-view 3DGS and uncovers a core limitation of current approaches: the optimized Gaussians are overly-entangled with one another to aggressively fit the training views, which leads to a neglect of the real appearance distribution of the underlying scene and results in appearance artifacts in novel views. The analysis is based on a proposed metric, termed Co-Adaptation Score (CA), which quantifies the entanglement among Gaussians, i.e., co-adaptation, by computing the pixel-wise variance across multiple renderings of the same viewpoint, with different random subsets of Gaussians. The analysis reveals that the degree of co-adaptation is naturally alleviated as the number of training views increases. Based on the analysis, we propose two lightweight strategies to explicitly mitigate the co-adaptation in sparse-view 3DGS: (1) random gaussian dropout; (2) multiplicative noise injection to the opacity. Both strategies are designed to be plug-and-play, and their effectiveness is validated across various methods and benchmarks. We hope that our insights into the co-adaptation effect will inspire the community to achieve a more comprehensive understanding of sparse-view 3DGS.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS) は、高密度ビュー環境下での新規なビュー合成において、印象的な性能を示した。
しかし、スパースビューのシナリオでは、トレーニングビューのリアルなレンダリングにもかかわらず、3DGSは時々、新しいビューで外見のアーティファクトを示す。
本稿では,スパースビュー3DGSの外観アーティファクトを解析し,現在のアプローチのコア限界を明らかにする。最適化されたガウスは,トレーニングビューに積極的に適合するために相互に過剰に絡み合っており,基礎となるシーンの実際の外観分布を無視し,新しいビューにおける外観アーティファクトを生じさせる。
この分析は、共適応スコア(Co-Adaptation Score、CA)と呼ばれる提案された計量に基づいており、これはガウス間の絡み合い、すなわち、同じ視点の複数のレンダリングにまたがる画素幅の分散を、ガウスの異なるランダムな部分集合で計算することによって、コ・アダプション(co-adaptation)と呼ばれる。
分析の結果,協調適応の度合いはトレーニングビューの数が増えるにつれて自然に緩和されることが明らかとなった。
本分析に基づき,スパースビュー3DGSにおける共適応を明示的に緩和する2つの軽量戦略を提案する。
どちらの戦略もプラグアンドプレイ用に設計されており、その効果は様々なメソッドやベンチマークで検証されている。
我々は,共同適応効果に対する我々の洞察が,スパースビュー3DGSのより包括的な理解をコミュニティに与えてくれることを期待している。
関連論文リスト
- UGOD: Uncertainty-Guided Differentiable Opacity and Soft Dropout for Enhanced Sparse-View 3DGS [8.78995910690481]
3D Gaussian Splatting (3DGS) は新規ビュー合成(NVS)の競争的アプローチとなっている
本稿では,ガウスの適応重み付けがレンダリング品質に与える影響について検討する。
提案手法は,MipNeRF 360データセットにおいて3.27%のPSNR改善を実現する。
論文 参考訳(メタデータ) (2025-08-07T01:42:22Z) - PointGS: Point Attention-Aware Sparse View Synthesis with Gaussian Splatting [4.451779041553596]
3D Gaussian splatting (3DGS) は、レンダリング速度と視覚品質の両方において、ニューラル放射場(NeRF)を超える革新的なレンダリング技術である。
本稿では,スパーストレーニングビューからリアルタイムかつ高品質なレンダリングを可能にするポイントワイズ特徴認識型ガウス分割フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-12T04:07:07Z) - DropGaussian: Structural Regularization for Sparse-view Gaussian Splatting [5.216151302783165]
本稿では,DropGaussianと呼ばれる3次元ガウススプラッティングの簡易な変更による事前自由化手法を提案する。
具体的には、トレーニングプロセス中にランダムにガウスをドロップアウトで除去し、非除外ガウスがより大きな勾配を持つようにします。
このような単純な操作は、オーバーフィッティング問題を効果的に軽減し、新規なビュー合成の品質を高める。
論文 参考訳(メタデータ) (2025-04-01T13:23:34Z) - NovelGS: Consistent Novel-view Denoising via Large Gaussian Reconstruction Model [57.92709692193132]
NovelGSは、スパースビュー画像が与えられたガウススプラッティングの拡散モデルである。
我々は3Dガウスを生成するためにトランスフォーマーネットワークを経由する新しい視点を利用する。
論文 参考訳(メタデータ) (2024-11-25T07:57:17Z) - PEP-GS: Perceptually-Enhanced Precise Structured 3D Gaussians for View-Adaptive Rendering [3.1006820631993515]
3D Gaussian Splatting (3D-GS)はリアルタイムで高品質な3Dシーンレンダリングにおいて大きな成功を収めた。
PEP-GSは、不透明度、色、共分散を含むガウス属性を動的に予測する知覚的に強化されたフレームワークである。
我々はPEP-GSが最先端の手法、特にビュー依存効果や細かな詳細を含む挑戦的なシナリオにおいて優れていることを示す。
論文 参考訳(メタデータ) (2024-11-08T17:42:02Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - MVGS: Multi-view-regulated Gaussian Splatting for Novel View Synthesis [22.80370814838661]
ボリュームレンダリングにおける最近の研究、例えばNeRFや3D Gaussian Splatting (3DGS)は、レンダリング品質と効率を大幅に向上させた。
4つの重要な貢献を具現化した新しい3DGS最適化手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T23:48:31Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。