論文の概要: Event-Aided Sharp Radiance Field Reconstruction for Fast-Flying Drones
- arxiv url: http://arxiv.org/abs/2602.21101v1
- Date: Tue, 24 Feb 2026 17:02:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.852282
- Title: Event-Aided Sharp Radiance Field Reconstruction for Fast-Flying Drones
- Title(参考訳): 高速飛行ドローンのイベント支援型シャープ放射場再構成
- Authors: Rong Zou, Marco Cannici, Davide Scaramuzza,
- Abstract要約: 我々は,非同期イベントストリームとモーションブルーフレームを併用して,アジャイルドローン飛行から高忠実度レーダランスフィールドを再構築する統合フレームワークを提案する。
高度にダイナミックなドローン飛行では、動きのぼやけによってRGBフレームが格段に劣化し、事前の信頼性が低下するが、我々の手法は高忠実度レーダランス場を再構成し、微妙なシーンの詳細を保存し、実世界のデータで50%以上の性能向上をもたらす。
- 参考スコア(独自算出の注目度): 27.431207024401562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast-flying aerial robots promise rapid inspection under limited battery constraints, with direct applications in infrastructure inspection, terrain exploration, and search and rescue. However, high speeds lead to severe motion blur in images and induce significant drift and noise in pose estimates, making dense 3D reconstruction with Neural Radiance Fields (NeRFs) particularly challenging due to their high sensitivity to such degradations. In this work, we present a unified framework that leverages asynchronous event streams alongside motion-blurred frames to reconstruct high-fidelity radiance fields from agile drone flights. By embedding event-image fusion into NeRF optimization and jointly refining event-based visual-inertial odometry priors using both event and frame modalities, our method recovers sharp radiance fields and accurate camera trajectories without ground-truth supervision. We validate our approach on both synthetic data and real-world sequences captured by a fast-flying drone. Despite highly dynamic drone flights, where RGB frames are severely degraded by motion blur and pose priors become unreliable, our method reconstructs high-fidelity radiance fields and preserves fine scene details, delivering a performance gain of over 50% on real-world data compared to state-of-the-art methods.
- Abstract(参考訳): 高速飛行する空中ロボットは、限られたバッテリー制約下での迅速な検査を約束し、インフラ検査、地形探査、捜索と救助に直接応用する。
しかし、高速は画像の激しい動きのぼけを招き、ポーズ推定において大きなドリフトとノイズを生じさせ、ニューラルレイディアンス場(Neural Radiance Fields、NeRF)による密集した3次元再構成は、そのような劣化に対する高い感度のために特に困難である。
本研究では,非同期イベントストリームとモーションブルーフレームを併用して,アジャイルなドローン飛行から高忠実度レーダランスフィールドを再構築する統合フレームワークを提案する。
イベント画像融合をNeRF最適化に組み込み,イベントとフレームの両モードを用いてイベントベースの視覚慣性オードメトリーを併用することにより,地中トラストの監督なしに鮮明な放射場と正確なカメラ軌道を復元する。
我々は、高速飛行するドローンによってキャプチャされた合成データと実世界のシーケンスの両方に対して、我々のアプローチを検証する。
高度にダイナミックなドローン飛行では、RGBフレームが動きのぼかしによって著しく劣化し、事前の信頼性が低下するが、我々の手法は高忠実度レーダランス場を再構築し、微細なシーンの詳細を保存し、最先端の手法と比較して50%以上の性能向上を実現している。
関連論文リスト
- FRED: The Florence RGB-Event Drone Dataset [23.020669715621604]
小型で高速で軽量なドローンは、特に困難な照明条件下で、高速で動く物体を捕獲する制限のために、従来のRGBカメラに重大な課題をもたらす。
イベントカメラは、時間的定義とダイナミックレンジを提供する理想的なソリューションを提供するが、既存のベンチマークでは、微細な時間的解像度やドローン固有の動きパターンが欠如しており、これらの領域の進歩を妨げる。
本稿では、RGBビデオとストリームを組み合わせたドローン検出、追跡、軌道予測に特化した、新しいマルチモーダルデータセットであるFlorence RGB-Event Drone dataset (REDF)を紹介する。
論文 参考訳(メタデータ) (2025-06-05T15:40:41Z) - SaENeRF: Suppressing Artifacts in Event-based Neural Radiance Fields [12.428456822446947]
イベントカメラは低レイテンシ、低消費電力、低帯域幅、高ダイナミックレンジなどの利点を提供する。
イベントデータから幾何的に一貫性があり、測光的に正確な3D表現を再構築することは、基本的に困難である。
イベントストリームのみからの静的なシーンの3次元一貫性, 密度放射, フォトリアリスティックなNeRF再構成を可能にする, 新規な自己教師型フレームワークSaENeRFを提案する。
論文 参考訳(メタデータ) (2025-04-23T03:33:20Z) - NeRF On-the-go: Exploiting Uncertainty for Distractor-free NeRFs in the Wild [55.154625718222995]
我々は,複雑なシーンにおける新規ビューのロバストな合成を可能にする,シンプルで効果的な方法であるNeRF On-the-goを紹介する。
本手法は,最先端技術よりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-05-29T02:53:40Z) - AG-NeRF: Attention-guided Neural Radiance Fields for Multi-height Large-scale Outdoor Scene Rendering [9.365775353436177]
既存のニューラルラジアンス場(NeRF)をベースとした大規模屋外シーンのための新しいビュー合成法は主に1つの高度上に構築されている。
我々は、AG-NeRFと呼ばれるエンドツーエンドのフレームワークを提案し、様々なシーンの高度に基づいて自由視点画像を合成することにより、良好な再構築を構築するためのトレーニングコストを削減しようとしている。
論文 参考訳(メタデータ) (2024-04-18T04:54:28Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - Drone-NeRF: Efficient NeRF Based 3D Scene Reconstruction for Large-Scale
Drone Survey [11.176205645608865]
本研究では,大規模なドローン撮影シーンの効率的な再構築を支援するために,Drone-NeRFフレームワークを提案する。
我々のアプローチは、シーンをカメラの位置と深さの可視性に基づいて、均一なサブブロックに分割することである。
サブシーンはNeRFを使用して並列にトレーニングされ、完全なシーンにマージされる。
論文 参考訳(メタデータ) (2023-08-30T03:17:57Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Progressively Optimized Local Radiance Fields for Robust View Synthesis [76.55036080270347]
本稿では,1つのカジュアルな映像から大規模シーンのラディアンス場を再構成するアルゴリズムを提案する。
未知のポーズを扱うために、カメラのポーズと放射場を漸進的に推定する。
大規模な非有界シーンを扱うために、時間窓内にフレームで訓練された新しい局所放射場を動的に割り当てる。
論文 参考訳(メタデータ) (2023-03-24T04:03:55Z) - E-NeRF: Neural Radiance Fields from a Moving Event Camera [83.91656576631031]
理想的な画像からニューラルレイディアンス場(NeRF)を推定する手法はコンピュータビジョンコミュニティで広く研究されている。
本稿では,高速なイベントカメラからNeRFの形式でボリュームシーンを推定する最初の方法であるE-NeRFを提案する。
論文 参考訳(メタデータ) (2022-08-24T04:53:32Z) - PDRF: Progressively Deblurring Radiance Field for Fast and Robust Scene
Reconstruction from Blurry Images [75.87721926918874]
PDRF(Progressive Deblurring Radiance Field)について報告する。
PDRFは、ぼやけた画像から高品質な放射場を効率的に再構成する新しい手法である。
PDRF は以前の State-of-The-Art シーン再構成手法よりも15倍高速であることを示す。
論文 参考訳(メタデータ) (2022-08-17T03:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。