論文の概要: Diffusion-Guided Gaussian Splatting for Large-Scale Unconstrained 3D Reconstruction and Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2504.01960v1
- Date: Wed, 02 Apr 2025 17:59:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:23:40.370052
- Title: Diffusion-Guided Gaussian Splatting for Large-Scale Unconstrained 3D Reconstruction and Novel View Synthesis
- Title(参考訳): 大規模非拘束型3次元再構成のための拡散誘導型ガウススプラッティングと新しい視点合成
- Authors: Niluthpol Chowdhury Mithun, Tuan Pham, Qiao Wang, Ben Southall, Kshitij Minhas, Bogdan Matei, Stephan Mandt, Supun Samarasekera, Rakesh Kumar,
- Abstract要約: 本稿では,現行手法の限界に対処する多視点拡散モデルを用いて,新しい3DGSフレームワークであるGS-Diffを提案する。
マルチビュー入力に条件付き擬似観測を生成することにより、制約の少ない3次元再構成問題をよく表されたものに変換する。
4つのベンチマークの実験では、GS-Diffは最先端のベースラインをかなりのマージンで一貫して上回っている。
- 参考スコア(独自算出の注目度): 22.767866875051013
- License:
- Abstract: Recent advancements in 3D Gaussian Splatting (3DGS) and Neural Radiance Fields (NeRF) have achieved impressive results in real-time 3D reconstruction and novel view synthesis. However, these methods struggle in large-scale, unconstrained environments where sparse and uneven input coverage, transient occlusions, appearance variability, and inconsistent camera settings lead to degraded quality. We propose GS-Diff, a novel 3DGS framework guided by a multi-view diffusion model to address these limitations. By generating pseudo-observations conditioned on multi-view inputs, our method transforms under-constrained 3D reconstruction problems into well-posed ones, enabling robust optimization even with sparse data. GS-Diff further integrates several enhancements, including appearance embedding, monocular depth priors, dynamic object modeling, anisotropy regularization, and advanced rasterization techniques, to tackle geometric and photometric challenges in real-world settings. Experiments on four benchmarks demonstrate that GS-Diff consistently outperforms state-of-the-art baselines by significant margins.
- Abstract(参考訳): 近年の3次元ガウス散乱(3DGS)とニューラルレイディアンス場(NeRF)の進歩は、リアルタイム3次元再構成と新しいビュー合成において顕著な成果を上げている。
しかし、これらの手法は、スパースで不均一な入力カバレッジ、過渡的なオクルージョン、外観のばらつき、不整合なカメラ設定が品質の低下につながるような、大規模で制約のない環境に苦しむ。
本稿では,これらの制約に対処する多視点拡散モデルによりガイドされる新しい3DGSフレームワークであるGS-Diffを提案する。
マルチビュー入力に条件付き擬似観測を生成することで、制約の少ない3次元再構成問題を適切な結果に変換し、スパースデータにおいてもロバストな最適化を可能にする。
GS-Diffはさらに、外観埋め込み、単眼深度先行、動的オブジェクトモデリング、異方性正規化、高度なラスタライゼーション技術といったいくつかの拡張を統合し、現実世界の設定における幾何学的および測光的課題に取り組む。
4つのベンチマークの実験では、GS-Diffは最先端のベースラインをかなりのマージンで一貫して上回っている。
関連論文リスト
- HyperGS: Hyperspectral 3D Gaussian Splatting [13.07553815605148]
ハイパースペクトルノベルビュー合成(HNVS)のための新しいフレームワークであるHyperGSを紹介する。
提案手法は,多視点3次元ハイパースペクトルデータセットから材料特性を符号化することで,空間・スペクトルの同時レンダリングを可能にする。
これまでに公表されたモデルに対して14dbの精度向上を図り、実・模擬ハイパースペクトルシーンを広範囲に評価することで、HyperGSのロバスト性を実証する。
論文 参考訳(メタデータ) (2024-12-17T12:23:07Z) - GSurf: 3D Reconstruction via Signed Distance Fields with Direct Gaussian Supervision [3.2944910942497985]
マルチビュー画像からの表面再構成は3次元視覚における中核的な課題である。
近年, ニューラル・レージアンス・フィールド(NeRF)内のサイン付き距離場(SDF)を探索し, 高忠実な表面再構成を実現している。
本稿では,ガウス原始体から直接符号付き距離場を学習する新しいエンドツーエンド手法であるGSurfを紹介する。
GSurfは、VolSDFやNeuSといったニューラルな暗黙的表面法に匹敵する3D再構成品質を提供しながら、高速なトレーニングとレンダリングの速度を達成する。
論文 参考訳(メタデータ) (2024-11-24T05:55:19Z) - Beyond Gaussians: Fast and High-Fidelity 3D Splatting with Linear Kernels [51.08794269211701]
本稿では,ガウスカーネルを線形カーネルに置き換えて,よりシャープで高精度な結果を得る3Dリニアスティング(DLS)を提案する。
3DLSは、最先端の忠実さと正確さを示し、ベースライン3DGSよりも30%のFPS改善を実現している。
論文 参考訳(メタデータ) (2024-11-19T11:59:54Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Optimizing 3D Gaussian Splatting for Sparse Viewpoint Scene Reconstruction [11.840097269724792]
3D Gaussian Splatting (3DGS)は3Dシーン表現の有望なアプローチとして登場し、Neural Radiance Fields (NeRF)と比較して計算オーバーヘッドの低減を実現している。
SVS-GSは,3次元ガウス平滑化フィルタを統合して人工物を抑制する,スパースビューポイントシーン再構築のための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-09-05T03:18:04Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - Spec-Gaussian: Anisotropic View-Dependent Appearance for 3D Gaussian Splatting [55.71424195454963]
Spec-Gaussian は球面調和の代わりに異方性球面ガウス場を利用するアプローチである。
実験結果から,本手法はレンダリング品質の面で既存の手法を超越していることが示された。
この改良は、3D GSの適用性を高めて、特異面と異方面の複雑なシナリオを扱う。
論文 参考訳(メタデータ) (2024-02-24T17:22:15Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。