論文の概要: LighthouseGS: Indoor Structure-aware 3D Gaussian Splatting for Panorama-Style Mobile Captures
- arxiv url: http://arxiv.org/abs/2507.06109v1
- Date: Tue, 08 Jul 2025 15:49:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.271655
- Title: LighthouseGS: Indoor Structure-aware 3D Gaussian Splatting for Panorama-Style Mobile Captures
- Title(参考訳): LighthouseGS:パノラマ型携帯カメラ用3Dガウシアンスプレイティング
- Authors: Seungoh Han, Jaehoon Jang, Hyunsu Kim, Jaeheung Surh, Junhyung Kwak, Hyowon Ha, Kyungdon Joo,
- Abstract要約: LighthouseGSは、パノラマビューの灯台のようなスイーピングモーションにインスパイアされた、新しいフレームワークである。
LighthouseGSは、室内のリアルシーンと合成シーンでテストされ、フォトリアリスティックなレンダリングを提供する。
- 参考スコア(独自算出の注目度): 13.198509377398914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in 3D Gaussian Splatting (3DGS) have enabled real-time novel view synthesis (NVS) with impressive quality in indoor scenes. However, achieving high-fidelity rendering requires meticulously captured images covering the entire scene, limiting accessibility for general users. We aim to develop a practical 3DGS-based NVS framework using simple panorama-style motion with a handheld camera (e.g., mobile device). While convenient, this rotation-dominant motion and narrow baseline make accurate camera pose and 3D point estimation challenging, especially in textureless indoor scenes. To address these challenges, we propose LighthouseGS, a novel framework inspired by the lighthouse-like sweeping motion of panoramic views. LighthouseGS leverages rough geometric priors, such as mobile device camera poses and monocular depth estimation, and utilizes the planar structures often found in indoor environments. We present a new initialization method called plane scaffold assembly to generate consistent 3D points on these structures, followed by a stable pruning strategy to enhance geometry and optimization stability. Additionally, we introduce geometric and photometric corrections to resolve inconsistencies from motion drift and auto-exposure in mobile devices. Tested on collected real and synthetic indoor scenes, LighthouseGS delivers photorealistic rendering, surpassing state-of-the-art methods and demonstrating the potential for panoramic view synthesis and object placement.
- Abstract(参考訳): 近年の3Dガウス・スプラッティング(3DGS)は,室内のシーンで印象的な品質で,リアルタイムな新規ビュー・シンセサイザー(NVS)を実現している。
しかし,高忠実度レンダリングを実現するには,シーン全体をカバーする細心の注意を要するため,一般ユーザへのアクセシビリティが制限される。
ハンドヘルドカメラ(携帯端末など)を用いた単純なパノラマ式モーションを用いた実用的3DGSベースのNVSフレームワークの開発を目指している。
しかし、この回転優位な動きと狭いベースラインは、特にテクスチャのない屋内シーンにおいて、正確なカメラポーズと3Dポイント推定を困難にしている。
これらの課題に対処するために、パノラマビューの灯台のようなスイーピング動作にインスパイアされた新しいフレームワークであるLighthouseGSを提案する。
LighthouseGSは、モバイルデバイスカメラのポーズや単眼深度推定など、粗い幾何学的事前情報を活用し、屋内環境でよく見られる平面構造を利用する。
平面足場組立と呼ばれる新しい初期化手法を提案し,これらの構造に対して一貫した3次元点を生成するとともに,幾何学的および最適化的安定性を高めるための安定プルーニング戦略を提案する。
さらに,モバイル機器における運動ドリフトと自動露光の不整合を解消するために,幾何学的および測光的補正を導入する。
LighthouseGSは、実際の室内シーンと合成されたシーンでテストされ、フォトリアリスティックなレンダリングを提供し、最先端の手法を超越し、パノラマ的なビュー合成とオブジェクト配置の可能性を実証している。
関連論文リスト
- ICP-3DGS: SfM-free 3D Gaussian Splatting for Large-scale Unbounded Scenes [4.089605790376984]
我々は,大規模なカメラ動作下での正確なカメラポーズ推定を実現するために,ICP(Iterative Closest Point)を最適化ベースの改良に組み込むことを提案する。
また,大規模なシーンの再現を導くために,ボクセルを用いたシーン密度化手法を導入する。
ICP-3DGSのアプローチは、カメラポーズ推定と新しいビュー合成の両方において、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-06-24T21:10:06Z) - Back on Track: Bundle Adjustment for Dynamic Scene Reconstruction [78.27956235915622]
従来のSLAMシステムは、カジュアルなビデオでよく見られる非常にダイナミックなシーンと格闘する。
この研究は3Dポイントトラッカーを利用して、カメラによる動的物体の動きからカメラによる動きを分離する。
私たちのフレームワークは、従来のSLAM -- バンドル調整 -- の中核を、堅牢な学習ベースの3Dトラッカーフロントエンドと組み合わせています。
論文 参考訳(メタデータ) (2025-04-20T07:29:42Z) - FLARE: Feed-forward Geometry, Appearance and Camera Estimation from Uncalibrated Sparse Views [93.6881532277553]
FLAREは、高品質カメラのポーズと3次元幾何を、補正されていないスパースビュー画像から推定するために設計されたフィードフォワードモデルである。
本ソリューションでは,3次元構造を2次元画像平面にマッピングする上で,カメラポーズが重要なブリッジとして機能するケースケード学習パラダイムを特徴とする。
論文 参考訳(メタデータ) (2025-02-17T18:54:05Z) - Modeling Ambient Scene Dynamics for Free-view Synthesis [31.233859111566613]
モノクルキャプチャから周囲のシーンを動的に自由視点で合成する手法を提案する。
本手法は, 複雑な静的シーンを忠実に再構築できる3次元ガウス散乱(3DGS)の最近の進歩に基づいている。
論文 参考訳(メタデータ) (2024-06-13T17:59:11Z) - Gaussian Splatting on the Move: Blur and Rolling Shutter Compensation for Natural Camera Motion [25.54868552979793]
本稿では,カメラの動きに適応し,手持ち映像データを用いた高品質なシーン再構成を実現する手法を提案する。
合成データと実データの両方を用いて、既存の手法よりもカメラの動きを軽減できる性能を示した。
論文 参考訳(メタデータ) (2024-03-20T06:19:41Z) - Spatiotemporally Consistent HDR Indoor Lighting Estimation [66.26786775252592]
本研究では,屋内照明推定問題を解決するための物理動機付きディープラーニングフレームワークを提案する。
深度マップを用いた1枚のLDR画像から,任意の画像位置における空間的に一貫した照明を予測できる。
我々のフレームワークは、最先端の単一画像やビデオベースの手法と比較して、高画質で光リアリスティック照明予測を実現する。
論文 参考訳(メタデータ) (2023-05-07T20:36:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。