論文の概要: Holistic Large-Scale Scene Reconstruction via Mixed Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2505.23280v1
- Date: Thu, 29 May 2025 09:25:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.787494
- Title: Holistic Large-Scale Scene Reconstruction via Mixed Gaussian Splatting
- Title(参考訳): 混合ガウススプラッティングによる立体的大規模シーン再構成
- Authors: Chuandong Liu, Huijiao Wang, Lei Yu, Gui-Song Xia,
- Abstract要約: MixGSは大規模3Dシーン再構築のための新しい全体最適化フレームワークである。
大規模なシーンでの実験では、MixGSが最先端のレンダリング品質と競争速度を達成することを示した。
- 参考スコア(独自算出の注目度): 30.31985970421813
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in 3D Gaussian Splatting have shown remarkable potential for novel view synthesis. However, most existing large-scale scene reconstruction methods rely on the divide-and-conquer paradigm, which often leads to the loss of global scene information and requires complex parameter tuning due to scene partitioning and local optimization. To address these limitations, we propose MixGS, a novel holistic optimization framework for large-scale 3D scene reconstruction. MixGS models the entire scene holistically by integrating camera pose and Gaussian attributes into a view-aware representation, which is decoded into fine-detailed Gaussians. Furthermore, a novel mixing operation combines decoded and original Gaussians to jointly preserve global coherence and local fidelity. Extensive experiments on large-scale scenes demonstrate that MixGS achieves state-of-the-art rendering quality and competitive speed, while significantly reducing computational requirements, enabling large-scale scene reconstruction training on a single 24GB VRAM GPU. The code will be released at https://github.com/azhuantou/MixGS.
- Abstract(参考訳): 近年の3次元ガウススプラッティングの進歩は、新規なビュー合成の可能性を示している。
しかし,既存の大規模シーン再構築手法は,大域的なシーン情報の欠落を招き,シーン分割や局所最適化による複雑なパラメータチューニングを必要とする場合が多い。
これらの制約に対処するために,大規模な3次元シーン再構成のための新しい全体最適化フレームワークであるMixGSを提案する。
MixGSは、カメラのポーズとガウシアン属性をビュー対応の表現に組み込むことで、シーン全体を一様にモデル化し、細かなガウシアンにデコードする。
さらに、新しい混合操作は、デコードされたガウシアンと元のガウシアンを組み合わせて、グローバルなコヒーレンスと局所的な忠実さを共同で保存する。
大規模なシーンでの大規模な実験により、MixGSは最先端のレンダリング品質と競争速度を実現し、計算要求を大幅に削減し、単一の24GB VRAM GPUでの大規模なシーン再構築トレーニングを可能にした。
コードはhttps://github.com/azhuantou/MixGS.comでリリースされる。
関連論文リスト
- BlockGaussian: Efficient Large-Scale Scene Novel View Synthesis via Adaptive Block-Based Gaussian Splatting [23.190361456894816]
BlockGaussianは、コンテンツ対応シーン分割戦略と可視性対応ブロック最適化を取り入れた、新しいフレームワークである。
提案手法は,複数ベンチマークで5倍の高速化とPSNR平均1.21dBの改善を実現し,再現効率とレンダリング品質の両面において最先端の性能を実現する。
特に、BlockGaussianは計算要求を大幅に削減し、24GBのVRAMデバイスで大規模なシーン再構成を可能にする。
論文 参考訳(メタデータ) (2025-04-12T02:05:55Z) - MVSGaussian: Fast Generalizable Gaussian Splatting Reconstruction from Multi-View Stereo [54.00987996368157]
MVSGaussianは、Multi-View Stereo(MVS)から導かれる新しい一般化可能な3次元ガウス表現手法である。
MVSGaussianは、シーンごとにより良い合成品質でリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2024-05-20T17:59:30Z) - CityGaussian: Real-time High-quality Large-Scale Scene Rendering with Gaussians [64.6687065215713]
CityGaussianは、大規模な3DGSのトレーニングとレンダリングを効率化するために、新しい分別/分別トレーニングアプローチとLevel-of-Detail(LoD)戦略を採用している。
我々のアプローチは最先端のレンダリング品質を実現し、大規模なシーンを全く異なるスケールで一貫したリアルタイムレンダリングを可能にする。
論文 参考訳(メタデータ) (2024-04-01T14:24:40Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。