論文の概要: CoSurfGS:Collaborative 3D Surface Gaussian Splatting with Distributed Learning for Large Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2412.17612v1
- Date: Mon, 23 Dec 2024 14:31:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:57:51.790708
- Title: CoSurfGS:Collaborative 3D Surface Gaussian Splatting with Distributed Learning for Large Scene Reconstruction
- Title(参考訳): CoSurfGS:大規模シーン再構成のための分散学習による3次元表面ガウス平滑化
- Authors: Yuanyuan Gao, Yalun Dai, Hao Li, Weicai Ye, Junyi Chen, Danpeng Chen, Dingwen Zhang, Tong He, Guofeng Zhang, Junwei Han,
- Abstract要約: 大規模表面再構成のための分散学習に基づく多エージェント協調高速3DGS表面再構成フレームワークを提案する。
具体的には,局所モデル圧縮(LMC)とモデルアグリゲーションスキーム(MAS)を開発し,大規模シーンの高品質な表面表現を実現する。
提案手法は高速でスケーラブルな高忠実表面再構成とフォトリアリスティックレンダリングを実現する。
- 参考スコア(独自算出の注目度): 68.81212850946318
- License:
- Abstract: 3D Gaussian Splatting (3DGS) has demonstrated impressive performance in scene reconstruction. However, most existing GS-based surface reconstruction methods focus on 3D objects or limited scenes. Directly applying these methods to large-scale scene reconstruction will pose challenges such as high memory costs, excessive time consumption, and lack of geometric detail, which makes it difficult to implement in practical applications. To address these issues, we propose a multi-agent collaborative fast 3DGS surface reconstruction framework based on distributed learning for large-scale surface reconstruction. Specifically, we develop local model compression (LMC) and model aggregation schemes (MAS) to achieve high-quality surface representation of large scenes while reducing GPU memory consumption. Extensive experiments on Urban3d, MegaNeRF, and BlendedMVS demonstrate that our proposed method can achieve fast and scalable high-fidelity surface reconstruction and photorealistic rendering. Our project page is available at \url{https://gyy456.github.io/CoSurfGS}.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS) はシーン再構築において印象的な性能を示した。
しかし、既存のGSベースの表面再構成手法のほとんどは、3Dオブジェクトや限られたシーンに焦点を当てている。
これらの手法を大規模シーン再構築に直接適用すると、メモリコストの高騰、時間消費の過大さ、幾何学的詳細性の欠如といった課題が生じるため、実用的なアプリケーションでは実装が困難になる。
これらの課題に対処するために,大規模表面再構成のための分散学習に基づく多エージェント協調高速3DGS表面再構成フレームワークを提案する。
具体的には,局所モデル圧縮(LMC)とモデルアグリゲーションスキーム(MAS)を開発し,GPUメモリ使用量を削減するとともに,大規模シーンの高品質な表面表現を実現する。
Urban3d,MegaNeRF,BlendedMVSの大規模実験により,提案手法は高速かつスケーラブルな高忠実表面再構成と光リアルレンダリングを実現することができることを示した。
プロジェクトページは \url{https://gyy456.github.io/CoSurfGS} で公開されている。
関連論文リスト
- GSurf: 3D Reconstruction via Signed Distance Fields with Direct Gaussian Supervision [3.2944910942497985]
マルチビュー画像からの表面再構成は3次元視覚における中核的な課題である。
近年, ニューラル・レージアンス・フィールド(NeRF)内のサイン付き距離場(SDF)を探索し, 高忠実な表面再構成を実現している。
本稿では,ガウス原始体から直接符号付き距離場を学習する新しいエンドツーエンド手法であるGSurfを紹介する。
GSurfは、VolSDFやNeuSといったニューラルな暗黙的表面法に匹敵する3D再構成品質を提供しながら、高速なトレーニングとレンダリングの速度を達成する。
論文 参考訳(メタデータ) (2024-11-24T05:55:19Z) - 3D Convex Splatting: Radiance Field Rendering with 3D Smooth Convexes [87.01284850604495]
多視点画像から幾何学的に有意な放射場をモデル化するためのプリミティブとして3次元滑らかな凸を利用した3次元凸法(3DCS)を提案する。
3DCSは、MipNeizer, Tanks and Temples, Deep Blendingなどのベンチマークで、3DGSよりも優れたパフォーマンスを実現している。
本結果は,高品質なシーン再構築のための新しい標準となる3Dコンベクシングの可能性を強調した。
論文 参考訳(メタデータ) (2024-11-22T14:31:39Z) - GVKF: Gaussian Voxel Kernel Functions for Highly Efficient Surface Reconstruction in Open Scenes [4.289151408389622]
オープンシーンにおける効率的かつ効果的な3次元表面再構成法を提案する。
カーネルレグレッションによる離散3DGSに基づく連続的なシーン表現を提案する。
挑戦的なシーンデータセットの実験は、提案したGVKFの有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-11-04T07:07:31Z) - GigaGS: Scaling up Planar-Based 3D Gaussians for Large Scene Surface Reconstruction [71.08607897266045]
3D Gaussian Splatting (3DGS) は新規なビュー合成において有望な性能を示した。
本研究は,大規模な景観表面再構築の課題に取り組むための最初の試みである。
3DGSを用いた大規模シーンのための高品質な表面再構成手法であるGigaGSを提案する。
論文 参考訳(メタデータ) (2024-09-10T17:51:39Z) - 3D Gaussian Splatting for Large-scale Surface Reconstruction from Aerial Images [6.076999957937232]
AGS(Aerial Gaussian Splatting)という,空中多視点ステレオ(MVS)画像を用いた3DGSによる大規模表面再構成手法を提案する。
まず,大規模空中画像に適したデータチャンキング手法を提案する。
次に,レイ・ガウス断面積法を3DGSに統合し,深度情報と正規情報を得る。
論文 参考訳(メタデータ) (2024-08-31T08:17:24Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。