論文の概要: NexusGS: Sparse View Synthesis with Epipolar Depth Priors in 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2503.18794v1
- Date: Mon, 24 Mar 2025 15:40:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:35:30.748000
- Title: NexusGS: Sparse View Synthesis with Epipolar Depth Priors in 3D Gaussian Splatting
- Title(参考訳): NexusGS:3次元ガウススプラッティングにおけるエピポーラ深さ前駆体を用いたスパースビュー合成
- Authors: Yulong Zheng, Zicheng Jiang, Shengfeng He, Yandu Sun, Junyu Dong, Huaidong Zhang, Yong Du,
- Abstract要約: スパースビュー画像からの新規なビュー合成を促進する3DGSベースのアプローチであるNexusGSを提案する。
本手法では3DGSを高密度点雲で初期化する新しい点雲密度化戦略を導入する。
実験によると、NexusGSは深度精度とレンダリング品質を著しく向上し、最先端の手法をかなり上回っている。
- 参考スコア(独自算出の注目度): 45.18382361038417
- License:
- Abstract: Neural Radiance Field (NeRF) and 3D Gaussian Splatting (3DGS) have noticeably advanced photo-realistic novel view synthesis using images from densely spaced camera viewpoints. However, these methods struggle in few-shot scenarios due to limited supervision. In this paper, we present NexusGS, a 3DGS-based approach that enhances novel view synthesis from sparse-view images by directly embedding depth information into point clouds, without relying on complex manual regularizations. Exploiting the inherent epipolar geometry of 3DGS, our method introduces a novel point cloud densification strategy that initializes 3DGS with a dense point cloud, reducing randomness in point placement while preventing over-smoothing and overfitting. Specifically, NexusGS comprises three key steps: Epipolar Depth Nexus, Flow-Resilient Depth Blending, and Flow-Filtered Depth Pruning. These steps leverage optical flow and camera poses to compute accurate depth maps, while mitigating the inaccuracies often associated with optical flow. By incorporating epipolar depth priors, NexusGS ensures reliable dense point cloud coverage and supports stable 3DGS training under sparse-view conditions. Experiments demonstrate that NexusGS significantly enhances depth accuracy and rendering quality, surpassing state-of-the-art methods by a considerable margin. Furthermore, we validate the superiority of our generated point clouds by substantially boosting the performance of competing methods. Project page: https://usmizuki.github.io/NexusGS/.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)と3Dガウス・スプレイティング(3DGS)は、密集した空間のカメラ視点からの画像を用いて、顕著に高度なフォトリアリスティックなノベルビュー合成を行う。
しかし、これらの手法は監督が限られているため、数発のシナリオで苦労する。
本稿では, 複雑な手動正規化に頼ることなく, 深度情報を点雲に直接埋め込むことにより, スパースビュー画像からの新規ビュー合成を促進する3DGSベースのNexusGSを提案する。
提案手法は, 3DGSの固有極性幾何を探索し, 3DGSを高密度点雲で初期化し, 点配置におけるランダム性を低減し, 過度な平滑化や過度適合を防止できる新しい点雲密度化戦略を提案する。
特にNexusGSは,エピポーラ深さNexus,フローレジリエント深さBlending,フローフィルタ深さPruningの3つの重要なステップで構成されている。
これらのステップは光学フローとカメラのポーズを利用して正確な深度マップを計算し、光学フローに付随する不正確さを緩和する。
先天的な深度を取り入れることで、NexusGSは信頼性の高い高密度のクラウドカバレッジを確保し、スパースビュー条件下での安定した3DGSトレーニングをサポートする。
実験によると、NexusGSは深度精度とレンダリング品質を著しく向上し、最先端の手法をかなり上回っている。
さらに、競合する手法の性能を大幅に向上させることで、生成した点雲の優位性を検証した。
プロジェクトページ:https://usmizuki.github.io/NexusGS/。
関連論文リスト
- Beyond Gaussians: Fast and High-Fidelity 3D Splatting with Linear Kernels [51.08794269211701]
本稿では,ガウスカーネルを線形カーネルに置き換えて,よりシャープで高精度な結果を得る3Dリニアスティング(DLS)を提案する。
3DLSは、最先端の忠実さと正確さを示し、ベースライン3DGSよりも30%のFPS改善を実現している。
論文 参考訳(メタデータ) (2024-11-19T11:59:54Z) - Binocular-Guided 3D Gaussian Splatting with View Consistency for Sparse View Synthesis [53.702118455883095]
本稿では,ガウススプラッティングを用いたスパースビューから新しいビューを合成する新しい手法を提案する。
私たちのキーとなるアイデアは、両眼画像間の両眼立体的一貫性に固有の自己超越を探索することにあります。
我々の手法は最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-10-24T15:10:27Z) - Dense Point Clouds Matter: Dust-GS for Scene Reconstruction from Sparse Viewpoints [9.069919085326]
3D Gaussian Splatting (3DGS) はシーン合成および新しいビュー合成タスクにおいて顕著な性能を示した。
本研究では,スパース視点条件下での3DGSの限界を克服する新しいフレームワークであるDust-GSを提案する。
論文 参考訳(メタデータ) (2024-09-13T07:59:15Z) - LoopSparseGS: Loop Based Sparse-View Friendly Gaussian Splatting [18.682864169561498]
LoopSparseGSは、疎結合なビュー合成タスクのためのループベースの3DGSフレームワークである。
Sparse-Friended Smpling (SFS) 戦略を導入し,ガウス楕円体を過剰に処理し,画素誤差が大きくなった。
4つのデータセットの実験により、LoopSparseGSはスパース・インプット・ノベルビューの合成において既存の最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-08-01T03:26:50Z) - Free-SurGS: SfM-Free 3D Gaussian Splatting for Surgical Scene Reconstruction [36.46068581419659]
手術シーンのリアルタイム3D再構成は,コンピュータ支援手術において重要な役割を担っている。
近年の3次元ガウススプラッティングの進歩は、リアルタイムな新規なビュー合成に大きな可能性を示している。
外科的シーン再構成のためのSfMフリー3DGS法を提案する。
論文 参考訳(メタデータ) (2024-07-03T08:49:35Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - Pixel-GS: Density Control with Pixel-aware Gradient for 3D Gaussian Splatting [34.055320554440165]
3D Gaussian Splatting (3DGS) は、リアルタイムレンダリング性能を向上しながら、印象的なビュー合成結果を示した。
しかし、初期点雲の品質に大きく依存しており、初期化点が不十分な地域では、ぼやけや針状のアーティファクトが生じる。
これは主に3DGSの点雲成長条件によるもので、観測可能な視点からの平均勾配等級しか考慮していない。
成長条件の計算において,各視点でガウスがカバーする画素数を考慮し,Pixel-GSという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-22T17:59:21Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。