論文の概要: RSGaussian:3D Gaussian Splatting with LiDAR for Aerial Remote Sensing Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2412.18380v1
- Date: Tue, 24 Dec 2024 12:08:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:54:13.736252
- Title: RSGaussian:3D Gaussian Splatting with LiDAR for Aerial Remote Sensing Novel View Synthesis
- Title(参考訳): RSGaussian:3D Gaussian Splatting with LiDAR for Airial Remote Sensing Novel View Synthesis
- Authors: Yiling Yao, Wenjuan Zhang, Bing Zhang, Bocheng Li, Yaning Wang, Bowen Wang,
- Abstract要約: RSGaussianは、空中リモートセンシングシーンのための革新的な新しいビュー合成(NVS)手法である。
LiDARの点雲を3Dガウス散乱法に制約として組み込んでおり、ガウスが幾何ベンチマークに沿って成長して分裂することを保証している。
このアプローチはまた、LiDAR点雲と2D画像の間の画素レベルのアライメントを実現するために、カメラモデルの歪みパラメータを伴う座標変換を導入する。
- 参考スコア(独自算出の注目度): 6.900071309404811
- License:
- Abstract: This study presents RSGaussian, an innovative novel view synthesis (NVS) method for aerial remote sensing scenes that incorporate LiDAR point cloud as constraints into the 3D Gaussian Splatting method, which ensures that Gaussians grow and split along geometric benchmarks, addressing the overgrowth and floaters issues occurs. Additionally, the approach introduces coordinate transformations with distortion parameters for camera models to achieve pixel-level alignment between LiDAR point clouds and 2D images, facilitating heterogeneous data fusion and achieving the high-precision geo-alignment required in aerial remote sensing. Depth and plane consistency losses are incorporated into the loss function to guide Gaussians towards real depth and plane representations, significantly improving depth estimation accuracy. Experimental results indicate that our approach has achieved novel view synthesis that balances photo-realistic visual quality and high-precision geometric estimation under aerial remote sensing datasets. Finally, we have also established and open-sourced a dense LiDAR point cloud dataset along with its corresponding aerial multi-view images, AIR-LONGYAN.
- Abstract(参考訳): 本研究では,3次元ガウス散乱法にLiDAR点雲を制約として組み込んだ遠隔リモートセンシングシーンの革新的なビュー合成(NVS)手法であるRSGaussianについて述べる。
さらに,カメラモデルの歪みパラメータを用いた座標変換を導入し,LiDAR点雲と2次元画像の画素レベルのアライメントを実現し,不均一なデータ融合を容易にし,リモートセンシングに必要な高精度なジオアライメントを実現する。
奥行きと面の整合性損失を損失関数に組み込んでガウスを実深度と平面表現へ誘導し、深さ推定精度を著しく向上させる。
実験結果から,本手法は,空中リモートセンシングデータセットによる写真リアルな視覚的品質と高精度な幾何推定のバランスを保ちながら,新たなビュー合成を実現したことが示唆された。
最後に,高密度LiDAR点クラウドデータセットと対応する空中多視点画像であるAIR-LONGYANの確立とオープンソース化を行った。
関連論文リスト
- GP-GS: Gaussian Processes for Enhanced Gaussian Splatting [10.45038376276218]
本稿では,スパースSfM点雲の適応的および不確実性誘導密度化を実現する新しい3次元再構成フレームワークを提案する。
このパイプラインは不確実性推定を利用して、高分散予測のプルーニングを導く。
合成および実世界のデータセットで行った実験は、提案フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2025-02-04T12:50:16Z) - RDG-GS: Relative Depth Guidance with Gaussian Splatting for Real-time Sparse-View 3D Rendering [13.684624443214599]
本稿では,3次元ガウススプラッティングに基づく相対深度誘導を用いた新しいスパースビュー3DレンダリングフレームワークRDG-GSを提案する。
中心となる革新は、相対的な深度誘導を利用してガウス場を洗練させ、ビュー一貫性のある空間幾何学的表現に向けてそれを操ることである。
Mip-NeRF360, LLFF, DTU, Blenderに関する広範な実験を通じて、RDG-GSは最先端のレンダリング品質と効率を実証している。
論文 参考訳(メタデータ) (2025-01-19T16:22:28Z) - G2SDF: Surface Reconstruction from Explicit Gaussians with Implicit SDFs [84.07233691641193]
G2SDFはニューラル暗黙の符号付き距離場をガウススプラッティングフレームワークに統合する新しいアプローチである。
G2SDFは, 3DGSの効率を維持しつつ, 従来よりも優れた品質を実現する。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Binocular-Guided 3D Gaussian Splatting with View Consistency for Sparse View Synthesis [53.702118455883095]
本稿では,ガウススプラッティングを用いたスパースビューから新しいビューを合成する新しい手法を提案する。
私たちのキーとなるアイデアは、両眼画像間の両眼立体的一貫性に固有の自己超越を探索することにあります。
我々の手法は最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-10-24T15:10:27Z) - Mode-GS: Monocular Depth Guided Anchored 3D Gaussian Splatting for Robust Ground-View Scene Rendering [47.879695094904015]
そこで本研究では,地上ロボット軌道データセットのための新しいビューレンダリングアルゴリズムであるMode-GSを提案する。
提案手法は,既存の3次元ガウススプラッティングアルゴリズムの限界を克服する目的で,アンカー付きガウススプラッターを用いている。
提案手法は,PSNR,SSIM,LPIPSの計測値に基づいて,自由軌道パターンを持つ地上環境におけるレンダリング性能を向上する。
論文 参考訳(メタデータ) (2024-10-06T23:01:57Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - GPS-Gaussian: Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis [70.24111297192057]
我々は、文字の新たなビューをリアルタイムに合成するための新しいアプローチ、GPS-Gaussianを提案する。
提案手法は,スパースビューカメラ設定下での2K解像度のレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z) - LiDAR-guided Stereo Matching with a Spatial Consistency Constraint [7.448893867145506]
本研究では、LiDAR誘導ステレオマッチング(LGSM)と呼ばれる革新的なLiDAR誘導ステレオマッチング手法を提案する。
LGSMはまず、その色や強度の類似性に基づいて、各LiDAR投影点の均一画素を検出する。
我々の定式化は、画像情報の誘導によりスパースLiDAR投影点の制約を拡大し、ピクセルのコスト容積を最適化する。
論文 参考訳(メタデータ) (2022-02-21T02:29:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。