論文の概要: Fast Converging 3D Gaussian Splatting for 1-Minute Reconstruction
- arxiv url: http://arxiv.org/abs/2601.19489v1
- Date: Tue, 27 Jan 2026 11:20:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.298087
- Title: Fast Converging 3D Gaussian Splatting for 1-Minute Reconstruction
- Title(参考訳): 1分再構成のための高速収束3次元ガウススプラッティング
- Authors: Ziyu Zhang, Tianle Liu, Diantao Tu, Shuhan Shen,
- Abstract要約: 1分以内に収束するように設計された高速な3DGS再構築パイプラインを提案する。
このパイプラインはSIGGRAPH Asia 3DGS Fast Reconstruction Challengeのために開発された。
提案手法はPSNR28.43でトップパフォーマンスを達成し,第1位となった。
- 参考スコア(独自算出の注目度): 21.22231699553299
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a fast 3DGS reconstruction pipeline designed to converge within one minute, developed for the SIGGRAPH Asia 3DGS Fast Reconstruction Challenge. The challenge consists of an initial round using SLAM-generated camera poses (with noisy trajectories) and a final round using COLMAP poses (highly accurate). To robustly handle these heterogeneous settings, we develop a two-stage solution. In the first round, we use reverse per-Gaussian parallel optimization and compact forward splatting based on Taming-GS and Speedy-splat, load-balanced tiling, an anchor-based Neural-Gaussian representation enabling rapid convergence with fewer learnable parameters, initialization from monocular depth and partially from feed-forward 3DGS models, and a global pose refinement module for noisy SLAM trajectories. In the final round, the accurate COLMAP poses change the optimization landscape; we disable pose refinement, revert from Neural-Gaussians back to standard 3DGS to eliminate MLP inference overhead, introduce multi-view consistency-guided Gaussian splitting inspired by Fast-GS, and introduce a depth estimator to supervise the rendered depth. Together, these techniques enable high-fidelity reconstruction under a strict one-minute budget. Our method achieved the top performance with a PSNR of 28.43 and ranked first in the competition.
- Abstract(参考訳): 我々は,SIGGRAPH Asia 3DGS Fast Restruction Challengeのために開発された,1分以内に収束するように設計された高速3DGS再構築パイプラインを提案する。
チャレンジは、SLAM生成カメラのポーズ(ノイズのある軌道)を使った最初のラウンドと、COLMAPのポーズ(非常に正確な)を使用した最終ラウンドで構成される。
これら不均一な設定を頑健に処理するために、我々は2段階のソリューションを開発した。
第1ラウンドでは,Taming-GS と Speedy-Splat をベースとしたリバース・パー・ガウスの並列最適化と,ロードバランス・タイリング,学習可能なパラメータの少ない高速収束を実現するアンカーベースニューラル・ガウスの表現,単眼深度からの初期化,フィードフォワード3DGS モデルからの部分的にの展開,ノイズの多いSLAM トラジェクトリのためのグローバルポーズリファインメントモジュールを用いる。
最後のラウンドでは、正確なCOLMAPが最適化の状況を変える。我々は、修正を無効にし、ニューラルガウスから標準3DGSに戻すことで、MPP推論のオーバーヘッドをなくし、Fast-GSにインスパイアされた多視点一貫性誘導ガウス分割を導入し、描画深度を監視できる深さ推定器を導入する。
これらの技術は、厳格な1分間の予算で高忠実度復元を可能にする。
本手法はPSNR28.43でトップパフォーマンスを達成し,第1位となった。
関連論文リスト
- Gesplat: Robust Pose-Free 3D Reconstruction via Geometry-Guided Gaussian Splatting [21.952325954391508]
本稿では、3DGSベースのフレームワークであるGesplatを紹介し、ロバストな新しいビュー合成と、未提示のスパース画像からの幾何的に一貫した再構成を可能にする。
提案手法は,他のポーズフリー手法と比較して,前方および大規模の複雑なデータセット上でより堅牢な性能を実現する。
論文 参考訳(メタデータ) (2025-10-11T08:13:46Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - PGSR: Planar-based Gaussian Splatting for Efficient and High-Fidelity Surface Reconstruction [37.14913599050765]
高忠実表面再構成を実現するために,高速平面型ガウススプラッティング再構成表現(PGSR)を提案する。
次に、大域的幾何精度を維持するために、一視点幾何、多視点測光、幾何正則化を導入する。
提案手法は3DGS法およびNeRF法よりも優れた高忠実度レンダリングと幾何再構成を維持しつつ,高速なトレーニングとレンダリングを実現する。
論文 参考訳(メタデータ) (2024-06-10T17:59:01Z) - MVSGaussian: Fast Generalizable Gaussian Splatting Reconstruction from Multi-View Stereo [54.00987996368157]
MVSGaussianは、Multi-View Stereo(MVS)から導かれる新しい一般化可能な3次元ガウス表現手法である。
MVSGaussianは、シーンごとにより良い合成品質でリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2024-05-20T17:59:30Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - Gaussian Splatting SLAM [16.3858380078553]
単分子SLAMにおける3次元ガウス散乱の最初の応用について述べる。
我々の方法は3fpsで動作し、正確な追跡、マッピング、高品質なレンダリングに必要な表現を統一する。
ライブカメラから高忠実度で連続的に3Dシーンを再構築するためには、いくつかの革新が必要である。
論文 参考訳(メタデータ) (2023-12-11T18:19:04Z) - LightGaussian: Unbounded 3D Gaussian Compression with 15x Reduction and 200+ FPS [55.85673901231235]
光ガウシアン(LightGaussian)は、3次元ガウシアンをよりコンパクトなフォーマットに変換する方法である。
ネットワーク・プルーニングにインスパイアされたLightGaussianは、ガウシアンをシーン再構築において最小限のグローバルな重要性で特定した。
LightGaussian は 3D-GS フレームワークで FPS を 144 から 237 に上げながら,平均 15 倍の圧縮率を達成する。
論文 参考訳(メタデータ) (2023-11-28T21:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。