論文の概要: 360-GeoGS: Geometrically Consistent Feed-Forward 3D Gaussian Splatting Reconstruction for 360 Images
- arxiv url: http://arxiv.org/abs/2601.02102v1
- Date: Mon, 05 Jan 2026 13:28:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.148138
- Title: 360-GeoGS: Geometrically Consistent Feed-Forward 3D Gaussian Splatting Reconstruction for 360 Images
- Title(参考訳): 360-GeoGS:360画像のための幾何学的に整合したフィードフォワード3次元ガウス散乱再構成
- Authors: Jiaqi Yao, Zhongmiao Yan, Jingyi Xu, Songpengcheng Xia, Yan Xiang, Ling Pei,
- Abstract要約: 3Dシーンの再構築は、AR、ロボティクス、デジタルツインといった空間知能の応用に欠かせない。
本稿では,幾何的に一貫したガウス原始体を生成することができる,360度画像のための新しいフィードフォワード3DGSフレームワークを提案する。
- 参考スコア(独自算出の注目度): 24.62400578317384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D scene reconstruction is fundamental for spatial intelligence applications such as AR, robotics, and digital twins. Traditional multi-view stereo struggles with sparse viewpoints or low-texture regions, while neural rendering approaches, though capable of producing high-quality results, require per-scene optimization and lack real-time efficiency. Explicit 3D Gaussian Splatting (3DGS) enables efficient rendering, but most feed-forward variants focus on visual quality rather than geometric consistency, limiting accurate surface reconstruction and overall reliability in spatial perception tasks. This paper presents a novel feed-forward 3DGS framework for 360 images, capable of generating geometrically consistent Gaussian primitives while maintaining high rendering quality. A Depth-Normal geometric regularization is introduced to couple rendered depth gradients with normal information, supervising Gaussian rotation, scale, and position to improve point cloud and surface accuracy. Experimental results show that the proposed method maintains high rendering quality while significantly improving geometric consistency, providing an effective solution for 3D reconstruction in spatial perception tasks.
- Abstract(参考訳): 3Dシーンの再構築は、AR、ロボティクス、デジタルツインといった空間知能の応用に欠かせない。
従来のマルチビューステレオはスパース視点や低テクスチャ領域と苦労するが、ニューラルレンダリングアプローチは高品質な結果を生み出すことができるが、シーンごとの最適化が必要であり、リアルタイム効率が欠如している。
明示的な3Dガウススプラッティング(3DGS)は効率的なレンダリングを可能にするが、ほとんどのフィードフォワード変種は幾何学的整合性よりも視覚的品質に重点を置いており、正確な表面再構成と空間知覚タスクの全体的な信頼性を制限している。
本稿では,高レンダリング品質を維持しつつ,幾何的に一貫したガウス的プリミティブを生成することのできる,360度画像のための新しいフィードフォワード3DGSフレームワークを提案する。
Depth-Normal幾何正則化を導入し、正規情報と重み付けされた深度勾配を導入し、ガウス回転、スケール、位置を監督し、点雲と表面の精度を向上させる。
実験結果から,提案手法は空間認識タスクにおける3次元再構成の有効な解法として,幾何整合性を大幅に向上させつつ,高いレンダリング品質を維持していることがわかった。
関連論文リスト
- EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - RDG-GS: Relative Depth Guidance with Gaussian Splatting for Real-time Sparse-View 3D Rendering [13.684624443214599]
本稿では,3次元ガウススプラッティングに基づく相対深度誘導を用いた新しいスパースビュー3DレンダリングフレームワークRDG-GSを提案する。
中心となる革新は、相対的な深度誘導を利用してガウス場を洗練させ、ビュー一貫性のある空間幾何学的表現に向けてそれを操ることである。
Mip-NeRF360, LLFF, DTU, Blenderに関する広範な実験を通じて、RDG-GSは最先端のレンダリング品質と効率を実証している。
論文 参考訳(メタデータ) (2025-01-19T16:22:28Z) - GeoTexDensifier: Geometry-Texture-Aware Densification for High-Quality Photorealistic 3D Gaussian Splatting [16.859890870048076]
3D Gaussian Splatting (3DGS)は,3Dナビゲーション,VR(Virtual Reality),3Dシミュレーションなど,様々な分野で注目を集めている。
高品質な3DGSの再構成は、実際の幾何学的表面とテクスチャの細部を適合させるために十分なスプラットと適切な分布に依存している。
提案するGeoTexDensifierは,高品質なガウススプラットを再構築するためのジオテクスチャ対応デンシフィケーション戦略である。
論文 参考訳(メタデータ) (2024-12-22T00:25:53Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - PGSR: Planar-based Gaussian Splatting for Efficient and High-Fidelity Surface Reconstruction [37.14913599050765]
高忠実表面再構成を実現するために,高速平面型ガウススプラッティング再構成表現(PGSR)を提案する。
次に、大域的幾何精度を維持するために、一視点幾何、多視点測光、幾何正則化を導入する。
提案手法は3DGS法およびNeRF法よりも優れた高忠実度レンダリングと幾何再構成を維持しつつ,高速なトレーニングとレンダリングを実現する。
論文 参考訳(メタデータ) (2024-06-10T17:59:01Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。