論文の概要: MonoSplat: Generalizable 3D Gaussian Splatting from Monocular Depth Foundation Models
- arxiv url: http://arxiv.org/abs/2505.15185v1
- Date: Wed, 21 May 2025 07:03:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.034495
- Title: MonoSplat: Generalizable 3D Gaussian Splatting from Monocular Depth Foundation Models
- Title(参考訳): MonoSplat: モノクラー深さ基礎モデルから一般化可能な3Dガウススプレイティング
- Authors: Yifan Liu, Keyu Fan, Weihao Yu, Chenxin Li, Hao Lu, Yixuan Yuan,
- Abstract要約: 我々は,事前学習した単分子深度基礎モデルからリッチな視覚的事前情報を活用する新しいフレームワークであるMonoSplatを紹介した。
提案手法は,モノクロ特徴を多視点表現に変換するMono-Multi Feature Adapterと,ガウス予測モジュールの2つの重要なコンポーネントから構成される。
我々はMonoSplatが既存の手法に比べて優れた再構築品質と一般化能力を実現することを実証する。
- 参考スコア(独自算出の注目度): 42.00619438358396
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in generalizable 3D Gaussian Splatting have demonstrated promising results in real-time high-fidelity rendering without per-scene optimization, yet existing approaches still struggle to handle unfamiliar visual content during inference on novel scenes due to limited generalizability. To address this challenge, we introduce MonoSplat, a novel framework that leverages rich visual priors from pre-trained monocular depth foundation models for robust Gaussian reconstruction. Our approach consists of two key components: a Mono-Multi Feature Adapter that transforms monocular features into multi-view representations, coupled with an Integrated Gaussian Prediction module that effectively fuses both feature types for precise Gaussian generation. Through the Adapter's lightweight attention mechanism, features are seamlessly aligned and aggregated across views while preserving valuable monocular priors, enabling the Prediction module to generate Gaussian primitives with accurate geometry and appearance. Through extensive experiments on diverse real-world datasets, we convincingly demonstrate that MonoSplat achieves superior reconstruction quality and generalization capability compared to existing methods while maintaining computational efficiency with minimal trainable parameters. Codes are available at https://github.com/CUHK-AIM-Group/MonoSplat.
- Abstract(参考訳): 一般化可能な3Dガウス・スプラッティングの最近の進歩は、シーンごとの最適化を伴わないリアルタイム高忠実レンダリングの有望な成果を示しているが、既存のアプローチは、限定的な一般化性のため、新規シーンでの推論において、見慣れない視覚的コンテンツを扱うのに苦慮している。
この課題に対処するために,事前学習した単分子深度基礎モデルからリッチな視覚的先入観を活かし,堅牢なガウス的再構成を実現するMonoSplatを紹介した。
本手法は,モノラルな特徴を多視点表現に変換するMono-Multi Feature Adapterと,両方の特徴型を効果的に融合して正確なガウス生成を行う統合ガウス予測モジュールの2つの主要コンポーネントから構成される。
Adapterの軽量な注意機構を通じて、機能はビュー全体にわたってシームレスにアライメントされ集約され、貴重なモノクロの事前保存が可能であるため、予測モジュールは正確な幾何学と外観でガウスのプリミティブを生成することができる。
多様な実世界のデータセットに関する広範な実験を通じて,MonoSplatは,学習可能な最小限のパラメータで計算効率を維持しつつ,既存の手法に比べて優れた再構成品質と一般化能力を実現することを実証した。
コードはhttps://github.com/CUHK-AIM-Group/MonoSplatで入手できる。
関連論文リスト
- CrossView-GS: Cross-view Gaussian Splatting For Large-scale Scene Reconstruction [5.528874948395173]
マルチブランチ構築と融合に基づく大規模シーン再構築のための新しいクロスビューガウス分割法を提案する。
本手法は,最先端の手法と比較して,新規なビュー合成における優れた性能を実現する。
論文 参考訳(メタデータ) (2025-01-03T08:24:59Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [84.07233691641193]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - HiSplat: Hierarchical 3D Gaussian Splatting for Generalizable Sparse-View Reconstruction [46.269350101349715]
HiSplatは、一般化可能な3Dガウススプラッティングのための新しいフレームワークである。
階層的な3Dガウスを粗大な戦略で生成する。
これにより、再構築品質とデータセット間の一般化が大幅に向上する。
論文 参考訳(メタデータ) (2024-10-08T17:59:32Z) - MVSGaussian: Fast Generalizable Gaussian Splatting Reconstruction from Multi-View Stereo [54.00987996368157]
MVSGaussianは、Multi-View Stereo(MVS)から導かれる新しい一般化可能な3次元ガウス表現手法である。
MVSGaussianは、シーンごとにより良い合成品質でリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2024-05-20T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。