論文の概要: Online 3D Gaussian Splatting Modeling with Novel View Selection
- arxiv url: http://arxiv.org/abs/2508.14014v1
- Date: Tue, 19 Aug 2025 17:25:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:32.028454
- Title: Online 3D Gaussian Splatting Modeling with Novel View Selection
- Title(参考訳): 新しい視点選択によるオンライン3次元ガウススプラッティングモデリング
- Authors: Byeonggwon Lee, Junkyu Park, Khang Truong Giang, Soohwan Song,
- Abstract要約: 本研究では,RGBのみのフレームからオンライン3DGSモデルを作成するという課題に対処する。
オンラインで復元品質を解析することにより,追加トレーニングのための最適な非鍵フレームを選択する。
また、3DGSモデリングプロセスを通して3D情報の一貫性を確保するために、オンラインマルチビューステレオアプローチを取り入れたフレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.3872634680339635
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This study addresses the challenge of generating online 3D Gaussian Splatting (3DGS) models from RGB-only frames. Previous studies have employed dense SLAM techniques to estimate 3D scenes from keyframes for 3DGS model construction. However, these methods are limited by their reliance solely on keyframes, which are insufficient to capture an entire scene, resulting in incomplete reconstructions. Moreover, building a generalizable model requires incorporating frames from diverse viewpoints to achieve broader scene coverage. However, online processing restricts the use of many frames or extensive training iterations. Therefore, we propose a novel method for high-quality 3DGS modeling that improves model completeness through adaptive view selection. By analyzing reconstruction quality online, our approach selects optimal non-keyframes for additional training. By integrating both keyframes and selected non-keyframes, the method refines incomplete regions from diverse viewpoints, significantly enhancing completeness. We also present a framework that incorporates an online multi-view stereo approach, ensuring consistency in 3D information throughout the 3DGS modeling process. Experimental results demonstrate that our method outperforms state-of-the-art methods, delivering exceptional performance in complex outdoor scenes.
- Abstract(参考訳): 本研究では,RGBのみのフレームからオンライン3Dガウススプラッティング(3DGS)モデルを生成するという課題に対処する。
従来の研究では、3DGSモデル構築のためのキーフレームから3Dシーンを推定するために、密集したSLAM技術が用いられてきた。
しかし、これらの手法は、キーフレームのみに依存しているため、シーン全体をキャプチャするには不十分であり、不完全な再構築をもたらす。
さらに、一般化可能なモデルを構築するには、様々な視点からフレームを取り入れて、より広範なシーンカバレッジを実現する必要がある。
しかし、オンライン処理は、多くのフレームの使用や広範なトレーニングイテレーションを制限する。
そこで本研究では,適応的なビュー選択によるモデル完全性を向上させる,高品質な3DGSモデリング手法を提案する。
オンラインで復元品質を解析することにより,追加トレーニングのための最適な非鍵フレームを選択する。
キーフレームと選択された非キーフレームの両方を統合することで、様々な視点から不完全領域を洗練し、完全性を大幅に向上する。
また、3DGSモデリングプロセスを通して3D情報の一貫性を確保するために、オンラインマルチビューステレオアプローチを取り入れたフレームワークを提案する。
実験により, 複雑な屋外シーンにおいて, 最先端の手法よりも優れた性能が得られた。
関連論文リスト
- High-fidelity 3D Gaussian Inpainting: preserving multi-view consistency and photorealistic details [8.279171283542066]
3Dシーンの塗装は、3D構造に固有の不規則性のため、依然として難しい課題である。
本稿では,スパース・インペインティング・ビューを活用することで,完全な3Dシーンを再構築する新しい3Dガウス・インペインティング・フレームワークを提案する。
我々の手法は、視覚的品質と視界の整合性の両方において、既存の最先端手法よりも優れています。
論文 参考訳(メタデータ) (2025-07-24T01:48:50Z) - UniPre3D: Unified Pre-training of 3D Point Cloud Models with Cross-Modal Gaussian Splatting [64.31900521467362]
既存の事前学習方法は、オブジェクトレベルとシーンレベルの両方の点群に対して等しく有効である。
UniPre3Dは,任意のスケールの点群やアーキテクチャの3Dモデルに対してシームレスに適用可能な,最初の統合事前学習手法である。
論文 参考訳(メタデータ) (2025-06-11T17:23:21Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - MVS-GS: High-Quality 3D Gaussian Splatting Mapping via Online Multi-View Stereo [9.740087094317735]
オンライン多視点ステレオ手法を用いた高品質な3DGSモデリングのための新しいフレームワークを提案する。
本手法は,局所時間窓から逐次フレームを用いてMVS深度を推定し,包括的深度改善手法を適用した。
実験の結果,本手法は最先端の高密度SLAM法より優れていた。
論文 参考訳(メタデータ) (2024-12-26T09:20:04Z) - 3D-free meets 3D priors: Novel View Synthesis from a Single Image with Pretrained Diffusion Guidance [61.06034736050515]
単一入力画像からカメラ制御された視点を生成する方法を提案する。
本手法は,広範囲なトレーニングや3Dおよびマルチビューデータなしで,複雑で多様なシーンを処理できることに優れる。
論文 参考訳(メタデータ) (2024-08-12T13:53:40Z) - GGRt: Towards Pose-free Generalizable 3D Gaussian Splatting in Real-time [112.32349668385635]
GGRtは、現実のカメラポーズの必要性を軽減する、一般化可能な新しいビュー合成のための新しいアプローチである。
最初のポーズフリーの一般化可能な3D-GSフレームワークとして、GGRtは$ge$5 FPSで、リアルタイムレンダリングは$ge$100 FPSで実現している。
論文 参考訳(メタデータ) (2024-03-15T09:47:35Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal Pre-training Paradigm [111.16358607889609]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。