論文の概要: RegGS: Unposed Sparse Views Gaussian Splatting with 3DGS Registration
- arxiv url: http://arxiv.org/abs/2507.08136v2
- Date: Fri, 18 Jul 2025 19:26:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 18:47:38.973662
- Title: RegGS: Unposed Sparse Views Gaussian Splatting with 3DGS Registration
- Title(参考訳): RegGS:3DGS登録でガウシアン・スプレイティングを非表示に
- Authors: Chong Cheng, Yu Hu, Sicheng Yu, Beizhen Zhao, Zijian Wang, Hao Wang,
- Abstract要約: RegGSは、未提示のビューを再構築するための3Dガウス登録ベースのフレームワークである。
エントロピー規則化シンクホーンアルゴリズムを実装し, 最適輸送法であるMixture 2-Wasserstein $(textMW_2)$ distanceを効率よく解く。
また、$textMW$ 距離、光度整合性、深度幾何学を統合した3DGS登録モジュールを設計する。
- 参考スコア(独自算出の注目度): 10.88046882501116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) has demonstrated its potential in reconstructing scenes from unposed images. However, optimization-based 3DGS methods struggle with sparse views due to limited prior knowledge. Meanwhile, feed-forward Gaussian approaches are constrained by input formats, making it challenging to incorporate more input views. To address these challenges, we propose RegGS, a 3D Gaussian registration-based framework for reconstructing unposed sparse views. RegGS aligns local 3D Gaussians generated by a feed-forward network into a globally consistent 3D Gaussian representation. Technically, we implement an entropy-regularized Sinkhorn algorithm to efficiently solve the optimal transport Mixture 2-Wasserstein $(\text{MW}_2)$ distance, which serves as an alignment metric for Gaussian mixture models (GMMs) in $\mathrm{Sim}(3)$ space. Furthermore, we design a joint 3DGS registration module that integrates the $\text{MW}_2$ distance, photometric consistency, and depth geometry. This enables a coarse-to-fine registration process while accurately estimating camera poses and aligning the scene. Experiments on the RE10K and ACID datasets demonstrate that RegGS effectively registers local Gaussians with high fidelity, achieving precise pose estimation and high-quality novel-view synthesis. Project page: https://3dagentworld.github.io/reggs/.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、未ポーズの画像からシーンを再構築する可能性を実証している。
しかし、最適化に基づく3DGS法は、事前知識が限られているため、スパースビューに苦慮している。
一方、フィードフォワードガウスアプローチは入力形式によって制約されるため、より多くのインプットビューを組み込むのは難しい。
これらの課題に対処するために,未提案のスパースビューを再構築するための3次元ガウス登録に基づくフレームワークであるRegGSを提案する。
RegGSはフィードフォワードネットワークによって生成されたローカルな3Dガウスを、一様に一貫した3Dガウス表現に整列する。
技術的には、エントロピー規則化シンクホーンアルゴリズムを実装し、最適輸送ミクチャー2-ワッサーシュタイン$(\text{MW}_2)$距離を効率よく解き、ガウス混合モデル(GMM)を$\mathrm{Sim}(3)$空間でアライメントする。
さらに,$\text{MW}_2$ 距離,光度整合性,深度幾何学を統合した3DGS登録モジュールを設計する。
これにより、カメラのポーズを正確に推定し、シーンを調整しながら、粗大な登録プロセスを実現できる。
RE10KとACIDデータセットの実験では、RegGSは局所ガウスを高い忠実度で効率的に登録し、正確なポーズ推定と高品質のノベルビュー合成を実現している。
プロジェクトページ:https://3dagentworld.github.io/reggs/。
関連論文リスト
- DropGaussian: Structural Regularization for Sparse-view Gaussian Splatting [5.216151302783165]
本稿では,DropGaussianと呼ばれる3次元ガウススプラッティングの簡易な変更による事前自由化手法を提案する。
具体的には、トレーニングプロセス中にランダムにガウスをドロップアウトで除去し、非除外ガウスがより大きな勾配を持つようにします。
このような単純な操作は、オーバーフィッティング問題を効果的に軽減し、新規なビュー合成の品質を高める。
論文 参考訳(メタデータ) (2025-04-01T13:23:34Z) - GaussianSpa: An "Optimizing-Sparsifying" Simplification Framework for Compact and High-Quality 3D Gaussian Splatting [12.342660713851227]
3D Gaussian Splatting (3DGS) は、ガウス関数の連続的な集合を利用して、新しいビュー合成の主流として登場した。
3DGSは、ガウシアンの多さを記憶するためのかなりのメモリ要件に悩まされており、その実用性を妨げている。
コンパクトで高品質な3DGSのための最適化ベースの単純化フレームワークであるGaussianSpaを紹介する。
論文 参考訳(メタデータ) (2024-11-09T00:38:06Z) - No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - PixelGaussian: Generalizable 3D Gaussian Reconstruction from Arbitrary Views [116.10577967146762]
PixelGaussianは、任意の視点から一般化可能な3Dガウス再構成を学習するための効率的なフレームワークである。
提案手法は,様々な視点によく一般化した最先端性能を実現する。
論文 参考訳(メタデータ) (2024-10-24T17:59:58Z) - UniGS: Modeling Unitary 3D Gaussians for Novel View Synthesis from Sparse-view Images [20.089890859122168]
我々は,新しい3次元ガウス再構成と新しいビュー合成モデルであるUniGSを紹介する。
UniGSは、任意の数のスパースビュー画像から3Dガウスの高忠実度表現を予測する。
論文 参考訳(メタデータ) (2024-10-17T03:48:02Z) - GaussianOcc: Fully Self-supervised and Efficient 3D Occupancy Estimation with Gaussian Splatting [16.480043962212566]
本研究では, ガウススプラッティングとガウススプラッティングの2つの利用法を提案する。
その結果,GussianOcc法では,計算コストの低い競合性能において,完全に自己監督された3次元占有率推定が可能となった。
論文 参考訳(メタデータ) (2024-08-21T09:06:30Z) - GaussReg: Fast 3D Registration with Gaussian Splatting [10.049564362260055]
ポイントクラウドの登録は、大規模な3Dシーンのスキャンと再構築の基本的な問題である。
我々は,ポイントクラウド登録のための新しい粗粒度フレームワークであるGaussRegを提案する。
提案手法は,複数のデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-07T04:35:51Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。