論文の概要: RSGaussian:3D Gaussian Splatting with LiDAR for Aerial Remote Sensing Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2412.18380v1
- Date: Tue, 24 Dec 2024 12:08:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:54:13.736252
- Title: RSGaussian:3D Gaussian Splatting with LiDAR for Aerial Remote Sensing Novel View Synthesis
- Title(参考訳): RSGaussian:3D Gaussian Splatting with LiDAR for Airial Remote Sensing Novel View Synthesis
- Authors: Yiling Yao, Wenjuan Zhang, Bing Zhang, Bocheng Li, Yaning Wang, Bowen Wang,
- Abstract要約: RSGaussianは、空中リモートセンシングシーンのための革新的な新しいビュー合成(NVS)手法である。
LiDARの点雲を3Dガウス散乱法に制約として組み込んでおり、ガウスが幾何ベンチマークに沿って成長して分裂することを保証している。
このアプローチはまた、LiDAR点雲と2D画像の間の画素レベルのアライメントを実現するために、カメラモデルの歪みパラメータを伴う座標変換を導入する。
- 参考スコア(独自算出の注目度): 6.900071309404811
- License:
- Abstract: This study presents RSGaussian, an innovative novel view synthesis (NVS) method for aerial remote sensing scenes that incorporate LiDAR point cloud as constraints into the 3D Gaussian Splatting method, which ensures that Gaussians grow and split along geometric benchmarks, addressing the overgrowth and floaters issues occurs. Additionally, the approach introduces coordinate transformations with distortion parameters for camera models to achieve pixel-level alignment between LiDAR point clouds and 2D images, facilitating heterogeneous data fusion and achieving the high-precision geo-alignment required in aerial remote sensing. Depth and plane consistency losses are incorporated into the loss function to guide Gaussians towards real depth and plane representations, significantly improving depth estimation accuracy. Experimental results indicate that our approach has achieved novel view synthesis that balances photo-realistic visual quality and high-precision geometric estimation under aerial remote sensing datasets. Finally, we have also established and open-sourced a dense LiDAR point cloud dataset along with its corresponding aerial multi-view images, AIR-LONGYAN.
- Abstract(参考訳): 本研究では,3次元ガウス散乱法にLiDAR点雲を制約として組み込んだ遠隔リモートセンシングシーンの革新的なビュー合成(NVS)手法であるRSGaussianについて述べる。
さらに,カメラモデルの歪みパラメータを用いた座標変換を導入し,LiDAR点雲と2次元画像の画素レベルのアライメントを実現し,不均一なデータ融合を容易にし,リモートセンシングに必要な高精度なジオアライメントを実現する。
奥行きと面の整合性損失を損失関数に組み込んでガウスを実深度と平面表現へ誘導し、深さ推定精度を著しく向上させる。
実験結果から,本手法は,空中リモートセンシングデータセットによる写真リアルな視覚的品質と高精度な幾何推定のバランスを保ちながら,新たなビュー合成を実現したことが示唆された。
最後に,高密度LiDAR点クラウドデータセットと対応する空中多視点画像であるAIR-LONGYANの確立とオープンソース化を行った。
関連論文リスト
- G2SDF: Surface Reconstruction from Explicit Gaussians with Implicit SDFs [84.07233691641193]
G2SDFはニューラル暗黙の符号付き距離場をガウススプラッティングフレームワークに統合する新しいアプローチである。
G2SDFは, 3DGSの効率を維持しつつ, 従来よりも優れた品質を実現する。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Binocular-Guided 3D Gaussian Splatting with View Consistency for Sparse View Synthesis [53.702118455883095]
本稿では,ガウススプラッティングを用いたスパースビューから新しいビューを合成する新しい手法を提案する。
私たちのキーとなるアイデアは、両眼画像間の両眼立体的一貫性に固有の自己超越を探索することにあります。
我々の手法は最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-10-24T15:10:27Z) - Gait Sequence Upsampling using Diffusion Models for Single LiDAR Sensors [1.0485739694839664]
LidarGSUは、既存の識別モデルの一般化能力を改善するように設計されている。
本研究は,ビデオ間翻訳手法における条件付きマスクとして,細かな歩行者点雲上のDPMを利用する。
提案手法では,SUSTeck1Kデータセットを用いて,生成品質と認識性能を評価する。
論文 参考訳(メタデータ) (2024-10-11T10:11:21Z) - Mode-GS: Monocular Depth Guided Anchored 3D Gaussian Splatting for Robust Ground-View Scene Rendering [47.879695094904015]
そこで本研究では,地上ロボット軌道データセットのための新しいビューレンダリングアルゴリズムであるMode-GSを提案する。
提案手法は,既存の3次元ガウススプラッティングアルゴリズムの限界を克服する目的で,アンカー付きガウススプラッターを用いている。
提案手法は,PSNR,SSIM,LPIPSの計測値に基づいて,自由軌道パターンを持つ地上環境におけるレンダリング性能を向上する。
論文 参考訳(メタデータ) (2024-10-06T23:01:57Z) - Implicit Gaussian Splatting with Efficient Multi-Level Tri-Plane Representation [45.582869951581785]
Implicit Gaussian Splatting (IGS)は、明示的なポイントクラウドと暗黙的な機能埋め込みを統合する革新的なハイブリッドモデルである。
本稿では,空間正規化を具体化したレベルベースプログレッシブトレーニング手法を提案する。
我々のアルゴリズムは、数MBしか使用せず、ストレージ効率とレンダリング忠実さを効果的にバランスして、高品質なレンダリングを実現することができる。
論文 参考訳(メタデータ) (2024-08-19T14:34:17Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - GPS-Gaussian: Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis [70.24111297192057]
我々は、文字の新たなビューをリアルタイムに合成するための新しいアプローチ、GPS-Gaussianを提案する。
提案手法は,スパースビューカメラ設定下での2K解像度のレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z) - LiDAR-guided Stereo Matching with a Spatial Consistency Constraint [7.448893867145506]
本研究では、LiDAR誘導ステレオマッチング(LGSM)と呼ばれる革新的なLiDAR誘導ステレオマッチング手法を提案する。
LGSMはまず、その色や強度の類似性に基づいて、各LiDAR投影点の均一画素を検出する。
我々の定式化は、画像情報の誘導によりスパースLiDAR投影点の制約を拡大し、ピクセルのコスト容積を最適化する。
論文 参考訳(メタデータ) (2022-02-21T02:29:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。