論文の概要: ConeGS: Error-Guided Densification Using Pixel Cones for Improved Reconstruction with Fewer Primitives
- arxiv url: http://arxiv.org/abs/2511.06810v1
- Date: Mon, 10 Nov 2025 07:54:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.144837
- Title: ConeGS: Error-Guided Densification Using Pixel Cones for Improved Reconstruction with Fewer Primitives
- Title(参考訳): ConeGS:Pixel Conesを用いた低純物再建のための誤ガイド型デンシフィケーション
- Authors: Bartłomiej Baranowski, Stefano Esposito, Patricia Gschoßmann, Anpei Chen, Andreas Geiger,
- Abstract要約: 3D Gaussian Splattingは、新しいビュー合成における最先端の画像品質とリアルタイム性能を実現する。
問題は、既存の幾何学に沿ってガウスを伝播させるクローンベースの密度化に起因している。
本研究では,既存のシーン形状に依存しない画像空間インフォームド・デンシフィケーション・フレームワークであるConeGSについて述べる。
- 参考スコア(独自算出の注目度): 27.616880434926646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) achieves state-of-the-art image quality and real-time performance in novel view synthesis but often suffers from a suboptimal spatial distribution of primitives. This issue stems from cloning-based densification, which propagates Gaussians along existing geometry, limiting exploration and requiring many primitives to adequately cover the scene. We present ConeGS, an image-space-informed densification framework that is independent of existing scene geometry state. ConeGS first creates a fast Instant Neural Graphics Primitives (iNGP) reconstruction as a geometric proxy to estimate per-pixel depth. During the subsequent 3DGS optimization, it identifies high-error pixels and inserts new Gaussians along the corresponding viewing cones at the predicted depth values, initializing their size according to the cone diameter. A pre-activation opacity penalty rapidly removes redundant Gaussians, while a primitive budgeting strategy controls the total number of primitives, either by a fixed budget or by adapting to scene complexity, ensuring high reconstruction quality. Experiments show that ConeGS consistently enhances reconstruction quality and rendering performance across Gaussian budgets, with especially strong gains under tight primitive constraints where efficient placement is crucial.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS) は、新しいビュー合成において、最先端の画像品質とリアルタイムのパフォーマンスを達成するが、プリミティブの空間分布に悩まされることが多い。
この問題は、既存の幾何学に沿ってガウスを伝播させ、探索を制限し、シーンを適切にカバーするために多くのプリミティブを必要とするクローンベースの密度化に起因している。
本研究では,既存のシーン形状の状態に依存しない画像空間インフォームド・デンシフィケーション・フレームワークであるConeGSについて述べる。
ConeGSはまず、ピクセルごとの深さを推定する幾何学的プロキシとして、高速なインスタントニューラルネットワークプリミティブ(iNGP)再構成を作成する。
その後の3DGS最適化では、ハイエラー画素を特定し、予測深度値で対応するビューングコーンに沿って新しいガウスアンを挿入し、コーン径に応じてそのサイズを初期化する。
プレアクティベーション不透明なペナルティは、冗長なガウスを急速に取り除き、プリミティブ予算戦略は、固定予算またはシーンの複雑さに適応して、高い再構築品質を確保することによって、プリミティブの総数を制御する。
実験により、ConeGSはガウスの予算全体にわたって、再構築品質とレンダリング性能を継続的に向上させ、特に効率的な配置が不可欠である厳密な原始的制約の下では、高い利得を示している。
関連論文リスト
- Visibility-Aware Densification for 3D Gaussian Splatting in Dynamic Urban Scenes [7.253732091582086]
VAD-GSは3DGSフレームワークで、挑戦的な都市景観の幾何学的復元に適したものだ。
本手法は, ボクセルに基づく可視性推論により, 信頼性の低い幾何学構造を同定する。
多様性を意識したビュー選択を通じて情報的支援ビューを選択し、パッチマッチングベースのステレオ再構築によって行方不明構造を復元する。
論文 参考訳(メタデータ) (2025-10-10T13:22:12Z) - Steepest Descent Density Control for Compact 3D Gaussian Splatting [72.54055499344052]
3D Gaussian Splatting (3DGS)は、強力なリアルタイム高解像度ノベルビューとして登場した。
本稿では,3DGSの密度制御をデミストし,改良する理論的枠組みを提案する。
我々はSteepGSを導入し、コンパクトな点雲を維持しながら損失を最小限に抑える原則的戦略である、最も急な密度制御を取り入れた。
論文 参考訳(メタデータ) (2025-05-08T18:41:38Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - Uncertainty-Aware Normal-Guided Gaussian Splatting for Surface Reconstruction from Sparse Image Sequences [21.120659841877508]
3D Gaussian Splatting (3DGS)は、新規なビュー合成において印象的なレンダリング性能を達成した。
3DGSパイプライン内の幾何的不確かさを定量化するために,不確かさを意識した正規誘導型ガウス格子(UNG-GS)を提案する。
UNG-GSはスパース配列と高密度シーケンスの両方で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-03-14T08:18:12Z) - PG-SAG: Parallel Gaussian Splatting for Fine-Grained Large-Scale Urban Buildings Reconstruction via Semantic-Aware Grouping [6.160345720038265]
本稿では,分割処理とカーネル最適化の両方にセマンティックキューをフル活用した並列ガウス分割手法PG-SAGを提案する。
その結果, 建物表面の再構成におけるPG-SAGの優れた性能を示すことができた。
論文 参考訳(メタデータ) (2025-01-03T07:40:16Z) - CityGaussianV2: Efficient and Geometrically Accurate Reconstruction for Large-Scale Scenes [53.107474952492396]
CityGaussianV2は大規模なシーン再構築のための新しいアプローチである。
分解段階の密度化・深さ回帰手法を実装し, ぼやけたアーチファクトを除去し, 収束を加速する。
本手法は, 視覚的品質, 幾何学的精度, ストレージ, トレーニングコストの両立を図っている。
論文 参考訳(メタデータ) (2024-11-01T17:59:31Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [100.90743697473232]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
スパースビューからのシーン再構成が可能な3次元ガウススプラッティングに基づくビュー合成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。