論文の概要: DroneSplat: 3D Gaussian Splatting for Robust 3D Reconstruction from In-the-Wild Drone Imagery
- arxiv url: http://arxiv.org/abs/2503.16964v1
- Date: Fri, 21 Mar 2025 09:21:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 15:40:10.349127
- Title: DroneSplat: 3D Gaussian Splatting for Robust 3D Reconstruction from In-the-Wild Drone Imagery
- Title(参考訳): DroneSplat:3Dガウシアンによるロバストな3D再構築
- Authors: Jiadong Tang, Yu Gao, Dianyi Yang, Liqi Yan, Yufeng Yue, Yi Yang,
- Abstract要約: DroneSplatは、既存のドローン画像からの堅牢な3D再構成のために設計された新しいフレームワークだ。
本手法は,局所的な領域分割と統計的アプローチを組み合わせることでマスキング閾値を適応的に調整する。
包括的評価のために,動的シーンと静的シーンの両方を含むドローンによる3D再構成データセットを提供する。
- 参考スコア(独自算出の注目度): 20.869325438718676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Drones have become essential tools for reconstructing wild scenes due to their outstanding maneuverability. Recent advances in radiance field methods have achieved remarkable rendering quality, providing a new avenue for 3D reconstruction from drone imagery. However, dynamic distractors in wild environments challenge the static scene assumption in radiance fields, while limited view constraints hinder the accurate capture of underlying scene geometry. To address these challenges, we introduce DroneSplat, a novel framework designed for robust 3D reconstruction from in-the-wild drone imagery. Our method adaptively adjusts masking thresholds by integrating local-global segmentation heuristics with statistical approaches, enabling precise identification and elimination of dynamic distractors in static scenes. We enhance 3D Gaussian Splatting with multi-view stereo predictions and a voxel-guided optimization strategy, supporting high-quality rendering under limited view constraints. For comprehensive evaluation, we provide a drone-captured 3D reconstruction dataset encompassing both dynamic and static scenes. Extensive experiments demonstrate that DroneSplat outperforms both 3DGS and NeRF baselines in handling in-the-wild drone imagery.
- Abstract(参考訳): ドローンは、巧妙な操作性のために、野生のシーンの再構築に欠かせない道具となっている。
近年の放射能場法の発展は画期的なレンダリング品質を達成しており、ドローン画像から3D再構成するための新たな道のりとなっている。
しかし、野生環境におけるダイナミックな散逸は、放射場における静的なシーン仮定に挑戦する一方で、視野の制限は、背景となるシーン幾何学の正確なキャプチャを妨げている。
これらの課題に対処するため、我々はDroneSplatを紹介した。
提案手法は,局所的領域分割ヒューリスティックを統計的アプローチと組み合わせることでマスキング閾値を適応的に調整し,静的なシーンにおけるダイナミックなイントラクタの正確な識別と除去を可能にする。
我々は,多視点ステレオ予測とボクセル誘導最適化戦略により3次元ガウススプラッティングを強化し,限られた視野制約下での高品質なレンダリングを支援する。
包括的評価のために,動的シーンと静的シーンの両方を含むドローンによる3D再構成データセットを提供する。
大規模な実験により、DroneSplatは3DGSとNeRFの両方のベースラインを性能的に上回っている。
関連論文リスト
- EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [59.77970844874235]
スパースビュー画像から高品質な3Dガウス画像を生成することができるフィードフォワード再構築フレームワークであるFreeSplatterを提案する。
FreeSplatterは、シーケンシャルな自己アテンションブロックで構成される、合理化されたトランスフォーマーアーキテクチャ上に構築されている。
テキスト・画像・3Dコンテンツ作成など,下流アプリケーションの生産性を高めるFreeSplatterの可能性を示す。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - SplatFields: Neural Gaussian Splats for Sparse 3D and 4D Reconstruction [24.33543853742041]
3Dガウススティング(3DGS)は実用的でスケーラブルな再構築手法として登場した。
暗黙的ニューラルネットワークの出力としてモデル化することで,スプレート特徴を効果的に正規化する最適化手法を提案する。
当社のアプローチは,異なるセットアップやシーンの複雑さをまたいだ広範なテストによって実証されるような,静的および動的ケースを効果的に処理する。
論文 参考訳(メタデータ) (2024-09-17T14:04:20Z) - EaDeblur-GS: Event assisted 3D Deblur Reconstruction with Gaussian Splatting [8.842593320829785]
ガウススプラッティング(EaDeblur-GS)を用いたイベント支援3次元デブロア再構成について述べる。
イベントカメラデータを統合して、3DGSの動作のぼかしに対する堅牢性を高める。
高速な3D再構成をリアルタイムで実現し、最先端の手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2024-07-18T13:55:54Z) - WildGaussians: 3D Gaussian Splatting in the Wild [80.5209105383932]
3DGSによる閉塞や外見の変化に対処する新しいアプローチであるWildGaussiansを紹介した。
我々はWildGaussianが3DGSとNeRFのベースラインを越えながら3DGSのリアルタイムレンダリング速度と一致していることを示す。
論文 参考訳(メタデータ) (2024-07-11T12:41:32Z) - SpotlessSplats: Ignoring Distractors in 3D Gaussian Splatting [44.42317312908314]
3D Gaussian Splatting (3DGS)は、3D再構成のための有望な技術であり、効率的なトレーニングとレンダリング速度を提供する。
現在の手法では、3DGSのビュー間の一貫性の仮定を満たすために、高度に制御された環境が必要である。
SpotLessSplatsは、トレーニング済みと汎用の機能と頑健な最適化を併用して、過渡的障害を効果的に無視するアプローチである。
論文 参考訳(メタデータ) (2024-06-28T17:07:11Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Drone-NeRF: Efficient NeRF Based 3D Scene Reconstruction for Large-Scale
Drone Survey [11.176205645608865]
本研究では,大規模なドローン撮影シーンの効率的な再構築を支援するために,Drone-NeRFフレームワークを提案する。
我々のアプローチは、シーンをカメラの位置と深さの可視性に基づいて、均一なサブブロックに分割することである。
サブシーンはNeRFを使用して並列にトレーニングされ、完全なシーンにマージされる。
論文 参考訳(メタデータ) (2023-08-30T03:17:57Z) - DroNeRF: Real-time Multi-agent Drone Pose Optimization for Computing
Neural Radiance Fields [19.582873794287632]
物体周囲の単眼カメラドローンの自律位置決めのための新しい最適化アルゴリズムDroNeRFを提案する。
NeRFは、入力画像の集合からオブジェクトやシーンの新しいビューを生成するために使われる新しいビュー合成技術である。
論文 参考訳(メタデータ) (2023-03-08T01:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。