論文の概要: DroneSplat: 3D Gaussian Splatting for Robust 3D Reconstruction from In-the-Wild Drone Imagery
- arxiv url: http://arxiv.org/abs/2503.16964v1
- Date: Fri, 21 Mar 2025 09:21:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:56:46.942886
- Title: DroneSplat: 3D Gaussian Splatting for Robust 3D Reconstruction from In-the-Wild Drone Imagery
- Title(参考訳): DroneSplat:3Dガウシアンによるロバストな3D再構築
- Authors: Jiadong Tang, Yu Gao, Dianyi Yang, Liqi Yan, Yufeng Yue, Yi Yang,
- Abstract要約: DroneSplatは、既存のドローン画像からの堅牢な3D再構成のために設計された新しいフレームワークだ。
本手法は,局所的な領域分割と統計的アプローチを組み合わせることでマスキング閾値を適応的に調整する。
包括的評価のために,動的シーンと静的シーンの両方を含むドローンによる3D再構成データセットを提供する。
- 参考スコア(独自算出の注目度): 20.869325438718676
- License:
- Abstract: Drones have become essential tools for reconstructing wild scenes due to their outstanding maneuverability. Recent advances in radiance field methods have achieved remarkable rendering quality, providing a new avenue for 3D reconstruction from drone imagery. However, dynamic distractors in wild environments challenge the static scene assumption in radiance fields, while limited view constraints hinder the accurate capture of underlying scene geometry. To address these challenges, we introduce DroneSplat, a novel framework designed for robust 3D reconstruction from in-the-wild drone imagery. Our method adaptively adjusts masking thresholds by integrating local-global segmentation heuristics with statistical approaches, enabling precise identification and elimination of dynamic distractors in static scenes. We enhance 3D Gaussian Splatting with multi-view stereo predictions and a voxel-guided optimization strategy, supporting high-quality rendering under limited view constraints. For comprehensive evaluation, we provide a drone-captured 3D reconstruction dataset encompassing both dynamic and static scenes. Extensive experiments demonstrate that DroneSplat outperforms both 3DGS and NeRF baselines in handling in-the-wild drone imagery.
- Abstract(参考訳): ドローンは、巧妙な操作性のために、野生のシーンの再構築に欠かせない道具となっている。
近年の放射能場法の発展は画期的なレンダリング品質を達成しており、ドローン画像から3D再構成するための新たな道のりとなっている。
しかし、野生環境におけるダイナミックな散逸は、放射場における静的なシーン仮定に挑戦する一方で、視野の制限は、背景となるシーン幾何学の正確なキャプチャを妨げている。
これらの課題に対処するため、我々はDroneSplatを紹介した。
提案手法は,局所的領域分割ヒューリスティックを統計的アプローチと組み合わせることでマスキング閾値を適応的に調整し,静的なシーンにおけるダイナミックなイントラクタの正確な識別と除去を可能にする。
我々は,多視点ステレオ予測とボクセル誘導最適化戦略により3次元ガウススプラッティングを強化し,限られた視野制約下での高品質なレンダリングを支援する。
包括的評価のために,動的シーンと静的シーンの両方を含むドローンによる3D再構成データセットを提供する。
大規模な実験により、DroneSplatは3DGSとNeRFの両方のベースラインを性能的に上回っている。
関連論文リスト
- FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [59.77970844874235]
スパースビュー画像から高品質な3Dガウス画像を生成することができるフィードフォワード再構築フレームワークであるFreeSplatterを提案する。
FreeSplatterは、シーケンシャルな自己アテンションブロックで構成される、合理化されたトランスフォーマーアーキテクチャ上に構築されている。
テキスト・画像・3Dコンテンツ作成など,下流アプリケーションの生産性を高めるFreeSplatterの可能性を示す。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - SplatFields: Neural Gaussian Splats for Sparse 3D and 4D Reconstruction [24.33543853742041]
3Dガウススティング(3DGS)は実用的でスケーラブルな再構築手法として登場した。
暗黙的ニューラルネットワークの出力としてモデル化することで,スプレート特徴を効果的に正規化する最適化手法を提案する。
当社のアプローチは,異なるセットアップやシーンの複雑さをまたいだ広範なテストによって実証されるような,静的および動的ケースを効果的に処理する。
論文 参考訳(メタデータ) (2024-09-17T14:04:20Z) - HDRGS: High Dynamic Range Gaussian Splatting [19.119572715951172]
高ダイナミックレンジ(GS)法は輝度によって色次元を向上し、トーンマッピングに非対称グリッドを使用する。
本手法は, 合成シナリオと実世界のシナリオの両方において, 現在の最先端技術を超えている。
論文 参考訳(メタデータ) (2024-08-13T00:32:36Z) - EaDeblur-GS: Event assisted 3D Deblur Reconstruction with Gaussian Splatting [8.842593320829785]
ガウススプラッティング(EaDeblur-GS)を用いたイベント支援3次元デブロア再構成について述べる。
イベントカメラデータを統合して、3DGSの動作のぼかしに対する堅牢性を高める。
高速な3D再構成をリアルタイムで実現し、最先端の手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2024-07-18T13:55:54Z) - WildGaussians: 3D Gaussian Splatting in the Wild [80.5209105383932]
3DGSによる閉塞や外見の変化に対処する新しいアプローチであるWildGaussiansを紹介した。
我々はWildGaussianが3DGSとNeRFのベースラインを越えながら3DGSのリアルタイムレンダリング速度と一致していることを示す。
論文 参考訳(メタデータ) (2024-07-11T12:41:32Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Drone-NeRF: Efficient NeRF Based 3D Scene Reconstruction for Large-Scale
Drone Survey [11.176205645608865]
本研究では,大規模なドローン撮影シーンの効率的な再構築を支援するために,Drone-NeRFフレームワークを提案する。
我々のアプローチは、シーンをカメラの位置と深さの可視性に基づいて、均一なサブブロックに分割することである。
サブシーンはNeRFを使用して並列にトレーニングされ、完全なシーンにマージされる。
論文 参考訳(メタデータ) (2023-08-30T03:17:57Z) - DroNeRF: Real-time Multi-agent Drone Pose Optimization for Computing
Neural Radiance Fields [19.582873794287632]
物体周囲の単眼カメラドローンの自律位置決めのための新しい最適化アルゴリズムDroNeRFを提案する。
NeRFは、入力画像の集合からオブジェクトやシーンの新しいビューを生成するために使われる新しいビュー合成技術である。
論文 参考訳(メタデータ) (2023-03-08T01:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。