論文の概要: DIP-GS: Deep Image Prior For Gaussian Splatting Sparse View Recovery
- arxiv url: http://arxiv.org/abs/2508.07372v1
- Date: Sun, 10 Aug 2025 14:47:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.830446
- Title: DIP-GS: Deep Image Prior For Gaussian Splatting Sparse View Recovery
- Title(参考訳): DIP-GS:ガウスのスパースビューリカバリに先立つディープイメージ
- Authors: Rajaei Khatib, Raja Giryes,
- Abstract要約: 3D Gaussian Splatting (3DGS) は3次元シーン再構築の先駆けとなる手法であり, リアルタイムレンダリング性能で高品質な再現を実現する。
多くのビューの存在下で優れたパフォーマンスを達成する一方で、3DGSはスパースビューの再構築に苦慮し、入力ビューはスパースで、シーンを完全にカバーせず、オーバーラップも少ない。
本稿では,Deep Image Prior (DIP) 3DGS表現であるDIP-GSを提案する。
- 参考スコア(独自算出の注目度): 31.43307762723943
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) is a leading 3D scene reconstruction method, obtaining high-quality reconstruction with real-time rendering runtime performance. The main idea behind 3DGS is to represent the scene as a collection of 3D gaussians, while learning their parameters to fit the given views of the scene. While achieving superior performance in the presence of many views, 3DGS struggles with sparse view reconstruction, where the input views are sparse and do not fully cover the scene and have low overlaps. In this paper, we propose DIP-GS, a Deep Image Prior (DIP) 3DGS representation. By using the DIP prior, which utilizes internal structure and patterns, with coarse-to-fine manner, DIP-based 3DGS can operate in scenarios where vanilla 3DGS fails, such as sparse view recovery. Note that our approach does not use any pre-trained models such as generative models and depth estimation, but rather relies only on the input frames. Among such methods, DIP-GS obtains state-of-the-art (SOTA) competitive results on various sparse-view reconstruction tasks, demonstrating its capabilities.
- Abstract(参考訳): 3D Gaussian Splatting(3DGS)は3Dシーン再構築手法であり,リアルタイムレンダリング実行時の性能を向上する。
3DGSの背景にある主なアイデアは、シーンを3Dガウスの集まりとして表現し、そのシーンの所定のビューに合うようにパラメータを学習することだ。
多くのビューの存在下で優れたパフォーマンスを達成する一方で、3DGSはスパースビューの再構築に苦慮し、入力ビューはスパースで、シーンを完全にカバーせず、オーバーラップも少ない。
本稿では,Deep Image Prior (DIP) 3DGS表現であるDIP-GSを提案する。
DIPをベースとした3DGSは、内部構造とパターンを粗い方法で利用することにより、スパースビューリカバリなどのバニラ3DGSが失敗するシナリオで動作することができる。
提案手法では, 生成モデルや深度推定などの事前学習モデルを用いず, 入力フレームのみに依存する。
DIP-GSは、様々なスパースビュー再構築タスクにおいて、最先端(SOTA)競争結果を取得し、その能力を実証する。
関連論文リスト
- Sparse2DGS: Sparse-View Surface Reconstruction using 2D Gaussian Splatting with Dense Point Cloud [9.784526657786342]
本稿では,Sparse2DGSと呼ばれる新しい3次元再構成手法を提案する。
Sparse2DGSはステレオ画像の基本モデルであるDUSt3RとCOLMAP MVSを採用し、高精度で密度の高い3D点雲を生成する。
Sparse2DGSは3つの画像を用いて物体の3次元形状を正確に再構成できることを示す。
論文 参考訳(メタデータ) (2025-05-26T11:38:26Z) - 3DGS-Enhancer: Enhancing Unbounded 3D Gaussian Splatting with View-consistent 2D Diffusion Priors [13.191199172286508]
新規ビュー合成は、複数の入力画像やビデオからシーンの新しいビューを生成することを目的としている。
3DGS-Enhancerは、3DGS表現の表現品質を向上させるための新しいパイプラインである。
論文 参考訳(メタデータ) (2024-10-21T17:59:09Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - DOGS: Distributed-Oriented Gaussian Splatting for Large-Scale 3D Reconstruction Via Gaussian Consensus [56.45194233357833]
3DGSを分散訓練するDoGaussianを提案する。
大規模シーンで評価すると,3DGSのトレーニングを6回以上高速化する。
論文 参考訳(メタデータ) (2024-05-22T19:17:58Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - SparseGS: Real-Time 360° Sparse View Synthesis using Gaussian Splatting [6.506706621221143]
3D Splatting (3DGS)は3Dシーンをリアルタイムにレンダリングして新しいビュー合成を実現した。
この技術は3次元幾何学を正確に再構築するために、密集したトレーニングビューを必要とする。
スパーストレーニングビューのシナリオにおける3DGSの限界に対処するために設計された,効率的なトレーニングパイプラインであるSparseGSを紹介した。
論文 参考訳(メタデータ) (2023-11-30T21:38:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。