論文の概要: Initialize to Generalize: A Stronger Initialization Pipeline for Sparse-View 3DGS
- arxiv url: http://arxiv.org/abs/2510.17479v1
- Date: Mon, 20 Oct 2025 12:23:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.447604
- Title: Initialize to Generalize: A Stronger Initialization Pipeline for Sparse-View 3DGS
- Title(参考訳): 初期化と一般化:スパースビュー3DGSのためのより強力な初期化パイプライン
- Authors: Feng Zhou, Wenkai Guo, Pu Cao, Zhicheng Zhang, Jianqin Yin,
- Abstract要約: Sparse-view 3D Gaussian Splatting (3DGS)はトレーニングビューによく適しており、新しいビューレンダリングのぼやけのようなアーティファクトにつながります。
以前の作業では、Structure-from-Motion(SfM)からポイントクラウドを拡張するか、3DGS最適化にトレーニング時間制限(正規化)を追加することで対処していた。
我々は、低周波ビュー拡張と緩和されたマルチビュー対応により、低テクスチャカバレッジを改善する周波数対応SfMを設計する。
- 参考スコア(独自算出の注目度): 31.824354716471294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse-view 3D Gaussian Splatting (3DGS) often overfits to the training views, leading to artifacts like blurring in novel view rendering. Prior work addresses it either by enhancing the initialization (\emph{i.e.}, the point cloud from Structure-from-Motion (SfM)) or by adding training-time constraints (regularization) to the 3DGS optimization. Yet our controlled ablations reveal that initialization is the decisive factor: it determines the attainable performance band in sparse-view 3DGS, while training-time constraints yield only modest within-band improvements at extra cost. Given initialization's primacy, we focus our design there. Although SfM performs poorly under sparse views due to its reliance on feature matching, it still provides reliable seed points. Thus, building on SfM, our effort aims to supplement the regions it fails to cover as comprehensively as possible. Specifically, we design: (i) frequency-aware SfM that improves low-texture coverage via low-frequency view augmentation and relaxed multi-view correspondences; (ii) 3DGS self-initialization that lifts photometric supervision into additional points, compensating SfM-sparse regions with learned Gaussian centers; and (iii) point-cloud regularization that enforces multi-view consistency and uniform spatial coverage through simple geometric/visibility priors, yielding a clean and reliable point cloud. Our experiments on LLFF and Mip-NeRF360 demonstrate consistent gains in sparse-view settings, establishing our approach as a stronger initialization strategy. Code is available at https://github.com/zss171999645/ItG-GS.
- Abstract(参考訳): Sparse-view 3D Gaussian Splatting (3DGS)はトレーニングビューによく適しており、新しいビューレンダリングのぼやけのようなアーティファクトにつながります。
以前の作業では、初期化(\emph{i.e.})、Structure-from-Motion(SfM)からの点雲の強化、あるいは3DGS最適化にトレーニング時間制約(正規化)を追加することで対処していた。
しかし,初期化が決定的な要因であることが明らかとなった。これはスパースビュー3DGSにおける達成可能な性能帯域を決定する一方で,トレーニング時間制約は,追加コストで最小限の帯域内改善しか得られない。
初期化の優位性を考えると、我々はそこで設計に焦点を合わせます。
SfMは、機能マッチングに依存しているため、スパースビューではうまく機能しないが、信頼できるシードポイントを提供する。
したがって、SfMをベースとした当社の取り組みは、可能な限り包括的にカバーできない地域を補うことを目的としています。
具体的には こう設計しています
(i)低周波視野拡張と緩和多視点対応による低テクスチャカバレッジを向上させる周波数対応SfM
(二)測光監督を付加点に引き上げる3DGS自己初期化、学習ガウス中心によるSfMスパース地域補償、及び
3)多視点整合性及び一様空間被覆を簡易な幾何学的・可視的先行により強制する点雲正則化により,クリーンで信頼性の高い点雲が得られる。
LLFF と Mip-NeRF360 に関する実験は、スパースビュー設定における一貫した向上を示し、より強力な初期化戦略として我々のアプローチを確立した。
コードはhttps://github.com/zss17 1999645/ItG-GSで入手できる。
関連論文リスト
- Segmentation-Driven Initialization for Sparse-view 3D Gaussian Splatting [0.9251324073335035]
3D Gaussian Splatting (3DGS)は、競争力のあるリアルタイムレンダリングを可能にした。
既存のパイプラインは、しばしばカメラポーズ推定にStructure-from-Motion(SfM)に依存している。
本研究では,構造的に重要な領域のみを識別・保持するために,領域ベースセグメンテーションを活用して非効率を緩和する手法を提案する。
論文 参考訳(メタデータ) (2025-09-15T12:31:33Z) - AttentionGS: Towards Initialization-Free 3D Gaussian Splatting via Structural Attention [11.400892739301804]
3D Gaussian Splatting(3DGS)はNeRF(Neural Radiance Fields)の強力な代替品である
これはStructure-from-Motion(SfM)からの高品質な点雲に依存している。
本稿では,高品質な初期点雲への依存を解消する新しいフレームワークであるAttentionGSを提案する。
論文 参考訳(メタデータ) (2025-06-30T08:16:43Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [100.90743697473232]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
スパースビューからのシーン再構成が可能な3次元ガウススプラッティングに基づくビュー合成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - Dense Point Clouds Matter: Dust-GS for Scene Reconstruction from Sparse Viewpoints [9.069919085326]
3D Gaussian Splatting (3DGS) はシーン合成および新しいビュー合成タスクにおいて顕著な性能を示した。
本研究では,スパース視点条件下での3DGSの限界を克服する新しいフレームワークであるDust-GSを提案する。
論文 参考訳(メタデータ) (2024-09-13T07:59:15Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - Relaxing Accurate Initialization Constraint for 3D Gaussian Splatting [29.58220473268378]
我々は,3次元ガウス平滑化のための正確な初期化制約を導出する RAIN-GS という新しい最適化手法を提案する。
RAIN-GSは、準最適点雲(ランダム点雲など)から3Dガウスを訓練することに成功している。
ランダムポイントクラウドでトレーニングされたRAIN-GSは、正確なSfMポイントクラウドでトレーニングされた3DGSよりも高いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-14T14:04:21Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。