論文の概要: MVGSR: Multi-View Consistency Gaussian Splatting for Robust Surface Reconstruction
- arxiv url: http://arxiv.org/abs/2503.08093v2
- Date: Thu, 13 Mar 2025 15:09:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 12:09:18.390461
- Title: MVGSR: Multi-View Consistency Gaussian Splatting for Robust Surface Reconstruction
- Title(参考訳): MVGSR:ロバスト表面再構成のための多視点連続ガウススプラッティング
- Authors: Chenfeng Hou, Qi Xun Yeo, Mengqi Guo, Yongxin Su, Yanyan Li, Gim Hee Lee,
- Abstract要約: 3D Gaussian Splatting (3DGS)は高品質なレンダリング機能、超高速トレーニング、推論速度で注目されている。
我々はロバスト表面再構成(textbfMVGSR)の領域に対するマルチビュー一貫性ガウススティングを提案する。
MVGSRは、最先端の表面再構成アルゴリズムと比較して、競合する幾何学的精度とレンダリング忠実度を実現している。
- 参考スコア(独自算出の注目度): 46.081262181141504
- License:
- Abstract: 3D Gaussian Splatting (3DGS) has gained significant attention for its high-quality rendering capabilities, ultra-fast training, and inference speeds. However, when we apply 3DGS to surface reconstruction tasks, especially in environments with dynamic objects and distractors, the method suffers from floating artifacts and color errors due to inconsistency from different viewpoints. To address this challenge, we propose Multi-View Consistency Gaussian Splatting for the domain of Robust Surface Reconstruction (\textbf{MVGSR}), which takes advantage of lightweight Gaussian models and a {heuristics-guided distractor masking} strategy for robust surface reconstruction in non-static environments. Compared to existing methods that rely on MLPs for distractor segmentation strategies, our approach separates distractors from static scene elements by comparing multi-view feature consistency, allowing us to obtain precise distractor masks early in training. Furthermore, we introduce a pruning measure based on multi-view contributions to reset transmittance, effectively reducing floating artifacts. Finally, a multi-view consistency loss is applied to achieve high-quality performance in surface reconstruction tasks. Experimental results demonstrate that MVGSR achieves competitive geometric accuracy and rendering fidelity compared to the state-of-the-art surface reconstruction algorithms. More information is available on our project page (https://mvgsr.github.io).
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は高品質なレンダリング機能、超高速トレーニング、推論速度で注目されている。
しかし、3DGSを表面再構成タスク、特に動的物体や乱れのある環境に応用すると、異なる視点からの不整合による浮動人工物や色誤差に悩まされる。
この課題に対処するために,ロバスト表面再構成(\textbf{MVGSR})の領域に対するマルチビュー・ガウス・スプラッティングを提案する。
提案手法は,マルチビュー特徴整合性を比較することによって,静的シーン要素からイントラクタを分離し,トレーニングの早い段階で正確なイントラクタマスクを得る。
さらに,複数ビューのコントリビューションをベースとしたプルーニング手法を導入し,浮き彫り物を効果的に低減する。
最後に、表面再構成タスクにおける高品質な性能を達成するために、多視点整合損失を適用した。
実験により,MVGSRは最先端表面再構成アルゴリズムと比較して,幾何的精度とレンダリング忠実度を比較検討した。
詳細はプロジェクトのページ(https://mvgsr.github.io)で確認できます。
関連論文リスト
- 3D Gaussian Splatting with Normal Information for Mesh Extraction and Improved Rendering [8.59572577251833]
ガウス関数から推定される符号距離関数の勾配を用いた新しい正規化法を提案する。
我々は、Mip-NeRF360、Tamps and Temples、Deep-Blendingなどのデータセットに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2025-01-14T18:40:33Z) - GausSurf: Geometry-Guided 3D Gaussian Splatting for Surface Reconstruction [79.42244344704154]
GausSurfは、テクスチャリッチな領域におけるマルチビュー一貫性と、シーンのテクスチャレスな領域における通常の事前の幾何学的ガイダンスを採用している。
本手法は,再現性や計算時間の観点から,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-11-29T03:54:54Z) - G2SDF: Surface Reconstruction from Explicit Gaussians with Implicit SDFs [84.07233691641193]
G2SDFはニューラル暗黙の符号付き距離場をガウススプラッティングフレームワークに統合する新しいアプローチである。
G2SDFは, 3DGSの効率を維持しつつ, 従来よりも優れた品質を実現する。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - DyGASR: Dynamic Generalized Exponential Splatting with Surface Alignment for Accelerated 3D Mesh Reconstruction [1.2891210250935148]
従来の3次元ガウス関数の代わりに一般化指数関数を用いて粒子数を減少させるDyGASRを提案する。
また,GSR(Generalized Surface Regularization)を導入し,各点雲の最小のスケーリングベクトルをゼロにする。
提案手法は既存の3DGSベースのメッシュ再構成手法を超越し,25%の高速化,30%のメモリ使用量の削減を実現している。
論文 参考訳(メタデータ) (2024-11-14T03:19:57Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - TranSplat: Generalizable 3D Gaussian Splatting from Sparse Multi-View Images with Transformers [14.708092244093665]
我々は,正確な局所特徴マッチングを導くために,予測深度信頼マップを利用する戦略を開発する。
本稿では,RealEstate10KベンチマークとACIDベンチマークの両方で最高の性能を示すTranSplatという新しいG-3DGS手法を提案する。
論文 参考訳(メタデータ) (2024-08-25T08:37:57Z) - SMORE: Simulataneous Map and Object REconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、世界が厳格に動く物体と背景に分解される動的なシーンの構成モデルを総合的に捉え、最適化する。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - C2F2NeUS: Cascade Cost Frustum Fusion for High Fidelity and
Generalizable Neural Surface Reconstruction [12.621233209149953]
本稿では,多視点ステレオとニューラルサイン付き距離関数表現を組み合わせた新しい統合手法を提案する。
本手法は,ロバストな表面を再構成し,既存の最先端の手法より優れる。
論文 参考訳(メタデータ) (2023-06-16T17:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。