論文の概要: Large-scale Photorealistic Outdoor 3D Scene Reconstruction from UAV Imagery Using Gaussian Splatting Techniques
- arxiv url: http://arxiv.org/abs/2602.20342v1
- Date: Mon, 23 Feb 2026 20:40:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.524958
- Title: Large-scale Photorealistic Outdoor 3D Scene Reconstruction from UAV Imagery Using Gaussian Splatting Techniques
- Title(参考訳): ガウス散乱法によるUAV画像からの大規模フォトリアリスティック屋外3次元シーン再構成
- Authors: Christos Maikos, Georgios Angelidis, Georgios Th. Papadopoulos,
- Abstract要約: 本稿では,ドローンでキャプチャした映像ストリームを低レイテンシで高忠実度な3D再構成に変換できるエンドツーエンドパイプラインを提案する。
我々の目標は,RTMPストリーミング,同期センサ融合,カメラポーズ推定,3DGS最適化によるライブビデオ取得を併用した効率的なアーキテクチャを提案することである。
- 参考スコア(独自算出の注目度): 0.734084539365505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we present an end-to-end pipeline capable of converting drone-captured video streams into high-fidelity 3D reconstructions with minimal latency. Unmanned aerial vehicles (UAVs) are extensively used in aerial real-time perception applications. Moreover, recent advances in 3D Gaussian Splatting (3DGS) have demonstrated significant potential for real-time neural rendering. However, their integration into end-to-end UAV-based reconstruction and visualization systems remains underexplored. Our goal is to propose an efficient architecture that combines live video acquisition via RTMP streaming, synchronized sensor fusion, camera pose estimation, and 3DGS optimization, achieving continuous model updates and low-latency deployment within interactive visualization environments that supports immersive augmented and virtual reality (AR/VR) applications. Experimental results demonstrate that the proposed method achieves competitive visual fidelity, while delivering significantly higher rendering performance and substantially reduced end-to-end latency, compared to NeRF-based approaches. Reconstruction quality remains within 4-7\% of high-fidelity offline references, confirming the suitability of the proposed system for real-time, scalable augmented perception from aerial platforms.
- Abstract(参考訳): 本研究では,ドローンが捉えた映像ストリームを低レイテンシで高忠実度な3D再構成に変換できるエンドツーエンドパイプラインを提案する。
無人航空機(UAV)は、空中リアルタイム認識の用途に広く用いられている。
さらに、3Dガウススプラッティング(3DGS)の最近の進歩は、リアルタイムなニューラルレンダリングに有意な可能性を示している。
しかし、UAVをベースとした再構築・可視化システムへの統合は未検討のままである。
我々の目標は,RTMPストリーミング,同期センサフュージョン,カメラポーズ推定,3DGS最適化によるライブビデオ取得と,没入型拡張現実(AR/VR)アプリケーションをサポートするインタラクティブビジュアライゼーション環境内の低レイテンシ展開を実現することにある。
実験により,提案手法は,NeRF方式に比べてレンダリング性能が大幅に向上し,エンドツーエンドのレイテンシを大幅に低減した。
再構成品質は高忠実度オフライン参照の4~7倍の範囲に留まり、提案方式が空中プラットフォームからのリアルタイムでスケーラブルな拡張認識に適合していることを確認する。
関連論文リスト
- 3D Scene Rendering with Multimodal Gaussian Splatting [7.646123713331197]
3Dシーンの再構築とレンダリングはコンピュータビジョンの中核的なタスクであり、産業監視、ロボット工学、自動運転といった用途にまたがる。
近年の3Dガウススプラッティングは、高い計算効率とメモリ効率を維持しながら、印象的なレンダリング忠実性を実現している。
我々は、自動車レーダーのようなRFセンシングとGSベースのレンダリングを、視覚のみのGSレンダリングのより効率的で堅牢な代替手段として統合するマルチモーダルフレームワークを導入する。
論文 参考訳(メタデータ) (2026-02-19T06:49:53Z) - ARTDECO: Towards Efficient and High-Fidelity On-the-Fly 3D Reconstruction with Structured Scene Representation [44.75113949778924]
ARTDECOは、フィードフォワードモデルの効率とSLAMベースのパイプラインの信頼性を組み合わせた統合フレームワークである。
ARTDECOはSLAMに匹敵するインタラクティブな性能、フィードフォワードシステムに類似した堅牢性、シーンごとの最適化に近い再現品質を提供する。
論文 参考訳(メタデータ) (2025-10-09T17:57:38Z) - Neural 3D Object Reconstruction with Small-Scale Unmanned Aerial Vehicles [16.745245388756533]
小型無人航空機(UAV)は、屋内と難航地域を航行する大きな可能性を秘めている。
本稿では,100グラム以下のUAVを用いた静的物体の完全自律・高忠実な3次元走査を可能にするシステムアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-09-15T21:08:32Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - SweepEvGS: Event-Based 3D Gaussian Splatting for Macro and Micro Radiance Field Rendering from a Single Sweep [48.34647667445792]
SweepEvGSは、イベントカメラを活用して、単一のスイープから堅牢で正確な新しいビュー合成を行う、新しいハードウェア統合手法である。
SweepEvGSの強靭性と効率性は,3つの異なる画像環境における実験により検証した。
以上の結果から,SweepEvGSは視覚的レンダリング品質,レンダリング速度,計算効率において,既存の手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-12-16T09:09:42Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - GGRt: Towards Pose-free Generalizable 3D Gaussian Splatting in Real-time [112.32349668385635]
GGRtは、現実のカメラポーズの必要性を軽減する、一般化可能な新しいビュー合成のための新しいアプローチである。
最初のポーズフリーの一般化可能な3D-GSフレームワークとして、GGRtは$ge$5 FPSで、リアルタイムレンダリングは$ge$100 FPSで実現している。
論文 参考訳(メタデータ) (2024-03-15T09:47:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。