論文の概要: 360-GeoGS: Geometrically Consistent Feed-Forward 3D Gaussian Splatting Reconstruction for 360 Images
- arxiv url: http://arxiv.org/abs/2601.02102v1
- Date: Mon, 05 Jan 2026 13:28:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.148138
- Title: 360-GeoGS: Geometrically Consistent Feed-Forward 3D Gaussian Splatting Reconstruction for 360 Images
- Title(参考訳): 360-GeoGS:360画像のための幾何学的に整合したフィードフォワード3次元ガウス散乱再構成
- Authors: Jiaqi Yao, Zhongmiao Yan, Jingyi Xu, Songpengcheng Xia, Yan Xiang, Ling Pei,
- Abstract要約: 3Dシーンの再構築は、AR、ロボティクス、デジタルツインといった空間知能の応用に欠かせない。
本稿では,幾何的に一貫したガウス原始体を生成することができる,360度画像のための新しいフィードフォワード3DGSフレームワークを提案する。
- 参考スコア(独自算出の注目度): 24.62400578317384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D scene reconstruction is fundamental for spatial intelligence applications such as AR, robotics, and digital twins. Traditional multi-view stereo struggles with sparse viewpoints or low-texture regions, while neural rendering approaches, though capable of producing high-quality results, require per-scene optimization and lack real-time efficiency. Explicit 3D Gaussian Splatting (3DGS) enables efficient rendering, but most feed-forward variants focus on visual quality rather than geometric consistency, limiting accurate surface reconstruction and overall reliability in spatial perception tasks. This paper presents a novel feed-forward 3DGS framework for 360 images, capable of generating geometrically consistent Gaussian primitives while maintaining high rendering quality. A Depth-Normal geometric regularization is introduced to couple rendered depth gradients with normal information, supervising Gaussian rotation, scale, and position to improve point cloud and surface accuracy. Experimental results show that the proposed method maintains high rendering quality while significantly improving geometric consistency, providing an effective solution for 3D reconstruction in spatial perception tasks.
- Abstract(参考訳): 3Dシーンの再構築は、AR、ロボティクス、デジタルツインといった空間知能の応用に欠かせない。
従来のマルチビューステレオはスパース視点や低テクスチャ領域と苦労するが、ニューラルレンダリングアプローチは高品質な結果を生み出すことができるが、シーンごとの最適化が必要であり、リアルタイム効率が欠如している。
明示的な3Dガウススプラッティング(3DGS)は効率的なレンダリングを可能にするが、ほとんどのフィードフォワード変種は幾何学的整合性よりも視覚的品質に重点を置いており、正確な表面再構成と空間知覚タスクの全体的な信頼性を制限している。
本稿では,高レンダリング品質を維持しつつ,幾何的に一貫したガウス的プリミティブを生成することのできる,360度画像のための新しいフィードフォワード3DGSフレームワークを提案する。
Depth-Normal幾何正則化を導入し、正規情報と重み付けされた深度勾配を導入し、ガウス回転、スケール、位置を監督し、点雲と表面の精度を向上させる。
実験結果から,提案手法は空間認識タスクにおける3次元再構成の有効な解法として,幾何整合性を大幅に向上させつつ,高いレンダリング品質を維持していることがわかった。
関連論文リスト
- MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - PGSR: Planar-based Gaussian Splatting for Efficient and High-Fidelity Surface Reconstruction [37.14913599050765]
高忠実表面再構成を実現するために,高速平面型ガウススプラッティング再構成表現(PGSR)を提案する。
次に、大域的幾何精度を維持するために、一視点幾何、多視点測光、幾何正則化を導入する。
提案手法は3DGS法およびNeRF法よりも優れた高忠実度レンダリングと幾何再構成を維持しつつ,高速なトレーニングとレンダリングを実現する。
論文 参考訳(メタデータ) (2024-06-10T17:59:01Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。