論文の概要: FRED: The Florence RGB-Event Drone Dataset
- arxiv url: http://arxiv.org/abs/2506.05163v1
- Date: Thu, 05 Jun 2025 15:40:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.790419
- Title: FRED: The Florence RGB-Event Drone Dataset
- Title(参考訳): FRED:Florence RGBイベントのドローンデータセット
- Authors: Gabriele Magrini, Niccolò Marini, Federico Becattini, Lorenzo Berlincioni, Niccolò Biondi, Pietro Pala, Alberto Del Bimbo,
- Abstract要約: 小型で高速で軽量なドローンは、特に困難な照明条件下で、高速で動く物体を捕獲する制限のために、従来のRGBカメラに重大な課題をもたらす。
イベントカメラは、時間的定義とダイナミックレンジを提供する理想的なソリューションを提供するが、既存のベンチマークでは、微細な時間的解像度やドローン固有の動きパターンが欠如しており、これらの領域の進歩を妨げる。
本稿では、RGBビデオとストリームを組み合わせたドローン検出、追跡、軌道予測に特化した、新しいマルチモーダルデータセットであるFlorence RGB-Event Drone dataset (REDF)を紹介する。
- 参考スコア(独自算出の注目度): 23.020669715621604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Small, fast, and lightweight drones present significant challenges for traditional RGB cameras due to their limitations in capturing fast-moving objects, especially under challenging lighting conditions. Event cameras offer an ideal solution, providing high temporal definition and dynamic range, yet existing benchmarks often lack fine temporal resolution or drone-specific motion patterns, hindering progress in these areas. This paper introduces the Florence RGB-Event Drone dataset (FRED), a novel multimodal dataset specifically designed for drone detection, tracking, and trajectory forecasting, combining RGB video and event streams. FRED features more than 7 hours of densely annotated drone trajectories, using 5 different drone models and including challenging scenarios such as rain and adverse lighting conditions. We provide detailed evaluation protocols and standard metrics for each task, facilitating reproducible benchmarking. The authors hope FRED will advance research in high-speed drone perception and multimodal spatiotemporal understanding.
- Abstract(参考訳): 小型で高速で軽量なドローンは、特に困難な照明条件下で、高速で動く物体を捕獲する制限のために、従来のRGBカメラに重大な課題をもたらす。
イベントカメラは、時間的定義とダイナミックレンジを提供する理想的なソリューションを提供するが、既存のベンチマークでは、微細な時間的解像度やドローン固有の動きパターンが欠如しており、これらの領域の進歩を妨げる。
本稿では、RGBビデオとイベントストリームを組み合わせた、ドローンの検出、追跡、軌道予測に特化した、新しいマルチモーダルデータセットであるFlorence RGB-Event Drone dataset (FRED)を紹介する。
FREDは、密接な注釈付きドローン軌道を7時間以上利用し、5つの異なるドローンモデルを使用しており、雨や悪天候といった困難なシナリオも備えている。
再現可能なベンチマークを容易にするために,各タスクに対して詳細な評価プロトコルと標準メトリクスを提供する。
著者らは、FREDが高速ドローン認識とマルチモーダル時空間理解の研究を進めることを期待している。
関連論文リスト
- YOLOMG: Vision-based Drone-to-Drone Detection with Appearance and Pixel-Level Motion Fusion [9.810747004677474]
本稿では,複雑な環境下で小型ドローンを正確に識別する新しいエンドツーエンドフレームワークを提案する。
最初は、小さなドローンのモーション特性を捉えるために、動きの差分マップを作成する。
次に、この動き差分マップをバイモーダル融合モジュールを用いてRGB画像と組み合わせることで、ドローンの適応的な特徴学習を可能にする。
論文 参考訳(メタデータ) (2025-03-10T09:44:21Z) - Dynamic EventNeRF: Reconstructing General Dynamic Scenes from Multi-view RGB and Event Streams [69.65147723239153]
動的シーンのボリューム再構成はコンピュータビジョンにおいて重要な問題である。
照明が悪く、動きが速い場合には特に困難である。
本稿では,スパースなマルチビューイベントストリームとスパースなRGBフレームからシーンを時間的に再構築する手法を提案する。
論文 参考訳(メタデータ) (2024-12-09T18:56:18Z) - Deblur e-NeRF: NeRF from Motion-Blurred Events under High-speed or Low-light Conditions [56.84882059011291]
動き赤外イベントからぼやけた最小のNeRFを再構成する新しい手法であるDeblur e-NeRFを提案する。
また,大きなテクスチャレスパッチの正規化を改善するために,新しいしきい値正規化全変動損失を導入する。
論文 参考訳(メタデータ) (2024-09-26T15:57:20Z) - Neuromorphic Drone Detection: an Event-RGB Multimodal Approach [25.26674905726921]
ニューロモルフィックカメラは、RGBカメラにとって困難な状況において、正確で豊かな時間的情報を保持できる。
マルチモーダルデータを活用することにより,両ドメインを統合化するための新しいモデルを提案する。
NeRDD(Neuromorphic-RGB Drone Detection)もリリースした。
論文 参考訳(メタデータ) (2024-09-24T13:53:20Z) - C2FDrone: Coarse-to-Fine Drone-to-Drone Detection using Vision Transformer Networks [23.133250476580038]
衝突回避、敵のドローン対策、捜索救助活動など、さまざまな用途において、視覚に基づくドローンからドローンまでの検出システムは不可欠である。
ドローンの検出には、小さなオブジェクトのサイズ、歪み、リアルタイム処理要求など、ユニークな課題がある。
本稿では,視覚変換器に基づく粗大な検出手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T05:51:21Z) - Towards Real-Time Fast Unmanned Aerial Vehicle Detection Using Dynamic Vision Sensors [6.03212980984729]
無人航空機(UAV)は民間や軍事用途で人気を集めている。
UAVの予防と検出は、機密性と安全性を保証するために重要である。
本稿では,F-UAV-D(Fast Unmanned Aerial Vehicle Detector)を提案する。
論文 参考訳(メタデータ) (2024-03-18T15:27:58Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - DSEC: A Stereo Event Camera Dataset for Driving Scenarios [55.79329250951028]
本研究は,イベントカメラを用いた初の高分解能大規模ステレオデータセットを提案する。
データセットは、様々な照明条件で駆動により収集された53のシーケンスを含む。
イベントベースステレオアルゴリズムの開発と評価のための基礎的な真相の相違を提供する。
論文 参考訳(メタデータ) (2021-03-10T12:10:33Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。