論文の概要: Event-based Tiny Object Detection: A Benchmark Dataset and Baseline
- arxiv url: http://arxiv.org/abs/2506.23575v1
- Date: Mon, 30 Jun 2025 07:28:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.955336
- Title: Event-based Tiny Object Detection: A Benchmark Dataset and Baseline
- Title(参考訳): イベントベースのTinyオブジェクト検出:ベンチマークデータセットとベースライン
- Authors: Nuo Chen, Chao Xiao, Yimian Dai, Shiman He, Miao Li, Wei An,
- Abstract要約: アンチUAVタスクにおける小さな物体検出(SOD)は、UAVの小さいサイズと複雑な背景のために難しい問題である。
イベントカメラは、マイクロ秒の時間分解能と高いダイナミックレンジを持ち、より効果的なSODソリューションを提供する。
既存のイベントベースのオブジェクト検出データセットは、スケールが制限され、大きなターゲットサイズが特徴であり、バックグラウンドの多様性が欠如しているため、SODベンチマークには適さない。
本稿では,イベントベーススモールオブジェクト検出(EVSOD)データセット(EV-UAV)を紹介する。
- 参考スコア(独自算出の注目度): 37.60578568397082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Small object detection (SOD) in anti-UAV task is a challenging problem due to the small size of UAVs and complex backgrounds. Traditional frame-based cameras struggle to detect small objects in complex environments due to their low frame rates, limited dynamic range, and data redundancy. Event cameras, with microsecond temporal resolution and high dynamic range, provide a more effective solution for SOD. However, existing event-based object detection datasets are limited in scale, feature large targets size, and lack diverse backgrounds, making them unsuitable for SOD benchmarks. In this paper, we introduce a Event-based Small object detection (EVSOD) dataset (namely EV-UAV), the first large-scale, highly diverse benchmark for anti-UAV tasks. It includes 147 sequences with over 2.3 million event-level annotations, featuring extremely small targets (averaging 6.8 $\times$ 5.4 pixels) and diverse scenarios such as urban clutter and extreme lighting conditions. Furthermore, based on the observation that small moving targets form continuous curves in spatiotemporal event point clouds, we propose Event based Sparse Segmentation Network (EV-SpSegNet), a novel baseline for event segmentation in point cloud space, along with a Spatiotemporal Correlation (STC) loss that leverages motion continuity to guide the network in retaining target events. Extensive experiments on the EV-UAV dataset demonstrate the superiority of our method and provide a benchmark for future research in EVSOD. The dataset and code are at https://github.com/ChenYichen9527/Ev-UAV.
- Abstract(参考訳): アンチUAVタスクにおける小さな物体検出(SOD)は、UAVの小さいサイズと複雑な背景のために難しい問題である。
従来のフレームベースのカメラは、フレームレートの低さ、ダイナミックレンジの制限、データの冗長性のために、複雑な環境で小さな物体を検出するのに苦労している。
イベントカメラは、マイクロ秒の時間分解能と高いダイナミックレンジを持ち、より効果的なSODソリューションを提供する。
しかしながら、既存のイベントベースのオブジェクト検出データセットは、規模が制限され、大きなターゲットサイズが特徴であり、さまざまなバックグラウンドがないため、SODベンチマークには適さない。
本稿では,イベントベーススモールオブジェクト検出(EVSOD)データセット(EV-UAV)を紹介する。
147のシーケンスと230万以上のイベントレベルのアノテーションがあり、非常に小さなターゲット(6.8ドル\times$5.4ピクセル)と、都市ごみや極端な照明条件のような多様なシナリオが特徴である。
さらに, 時空間におけるイベントセグメンテーションの新たなベースラインであるイベントベーススパースセグメンテーションネットワーク (EV-SpSegNet) と, 運動継続性を利用して, 目標イベントの保持を誘導する時空間相関(STC)ロスを提案する。
EV-UAVデータセットに関する大規模な実験は,本手法の優位性を実証し,将来のESVOD研究のためのベンチマークを提供する。
データセットとコードはhttps://github.com/ChenYichen9527/Ev-UAV。
関連論文リスト
- Asynchronous Multi-Object Tracking with an Event Camera [4.001017064909953]
本稿では,AEMOT(Asynchronous Event Multi-Object Tracking)アルゴリズムを提案する。
AEMOTを新しいBee Swarmデータセットで評価し、多数の小さなミツバチを精度とリコール性能で追跡し、代替のイベントベース検出と追跡アルゴリズムを37%以上上回った。
論文 参考訳(メタデータ) (2025-05-12T23:53:08Z) - Oriented Tiny Object Detection: A Dataset, Benchmark, and Dynamic Unbiased Learning [51.170479006249195]
本研究では,新しいデータセット,ベンチマーク,動的粗大な学習手法を提案する。
提案するデータセットであるAI-TOD-Rは、すべてのオブジェクト指向オブジェクト検出データセットの中で最小のオブジェクトサイズを特徴としている。
完全教師付きおよびラベル効率の両アプローチを含む,幅広い検出パラダイムにまたがるベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-16T09:14:32Z) - XS-VID: An Extremely Small Video Object Detection Dataset [33.62124448175971]
XS-VIDデータセットは,様々な期間や場面の航空データからなり,8つの主要な対象カテゴリに注釈を付ける。
XS-VIDは,画素面積の小さい3種類のオブジェクトを広範囲に収集する。
本稿では,局所的特徴関連性を高め,時間的運動特徴を統合し,SVODの精度と安定性を大幅に向上させるYOLOFTを提案する。
論文 参考訳(メタデータ) (2024-07-25T15:42:46Z) - Improving the Detection of Small Oriented Objects in Aerial Images [0.0]
本研究では,オブジェクト指向物体検出モデルの分類・回帰タスクを強化することにより,空中画像中の小型物体を高精度に検出する手法を提案する。
ガイド・アテンション・ロス(GALoss)とボックス・ポイント・ロス(BPLoss)の2つの損失からなるアテンション・ポイント・ネットワークを設計した。
実験結果から,小型オブジェクトインスタンスを用いた標準指向型空中データセットにおける注意点ネットワークの有効性が示された。
論文 参考訳(メタデータ) (2024-01-12T11:00:07Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Long Range Object-Level Monocular Depth Estimation for UAVs [0.0]
本稿では,画像からモノクロ物体を長距離検出するための最先端手法の新たな拡張法を提案する。
まず、回帰タスクとして深度推定をモデル化する際、SigmoidおよびReLUライクエンコーディングを提案する。
次に,深度推定を分類問題とし,訓練損失の計算にソフトアルグマックス関数を導入する。
論文 参考訳(メタデータ) (2023-02-17T15:26:04Z) - Towards Large-Scale Small Object Detection: Survey and Benchmarks [48.961205652306695]
我々は2つの大規模小型物体検出装置(SODA)、SODA-DおよびSODA-Aを構築し、それぞれが運転シナリオと航空シナリオに焦点を当てている。
SODA-Aでは,高分解能空中画像2513点を抽出し,9クラスに872069点を注釈した。
提案されたデータセットは、徹底的な注釈付きインスタンスの膨大なコレクションを持つ大規模なベンチマークへの最初の試みである。
論文 参考訳(メタデータ) (2022-07-28T14:02:18Z) - Detecting tiny objects in aerial images: A normalized Wasserstein
distance and a new benchmark [45.10513110142015]
本稿では, 正規化ワッサースタイン距離 (NWD) と呼ばれる新しい評価基準と, 小型物体検出のためのRanKing-based Assigning (RKA) 戦略を提案する。
提案したNWD-RKA戦略は、標準のIoUしきい値に基づくものを置き換えるために、あらゆる種類のアンカーベースの検出器に容易に組み込むことができる。
4つのデータセットでテストされたNWD-RKAは、大きなマージンで小さなオブジェクト検出性能を継続的に改善することができる。
論文 参考訳(メタデータ) (2022-06-28T13:33:06Z) - SCRDet++: Detecting Small, Cluttered and Rotated Objects via
Instance-Level Feature Denoising and Rotation Loss Smoothing [131.04304632759033]
小さくて散らばった物体は実世界では一般的であり、検出は困難である。
本稿では,まず,物体検出にデノナイズするアイデアを革新的に紹介する。
機能マップ上のインスタンスレベルの記述は、小さくて散らばったオブジェクトの検出を強化するために行われる。
論文 参考訳(メタデータ) (2020-04-28T06:03:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。