論文の概要: Comparing Surface Landmine Object Detection Models on a New Drone Flyby Dataset
- arxiv url: http://arxiv.org/abs/2410.19807v1
- Date: Thu, 17 Oct 2024 05:30:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-03 07:49:47.597700
- Title: Comparing Surface Landmine Object Detection Models on a New Drone Flyby Dataset
- Title(参考訳): 新しいドローンフライバイデータセットにおける地表面地雷物検出モデルの比較
- Authors: Navin Agrawal-Chung, Zohran Moin,
- Abstract要約: 従来の方法による地雷検出は遅く、危険であり、違法に高価である。
ディープラーニングに基づくオブジェクト検出アルゴリズムを使用することで、ドローンビデオは有望だが、最近普及した地表地雷の小さなソーダ缶サイズのために、複数の課題を抱えている。
この研究は地雷画像、ビデオデータセット、Jupyterノートのモデルに貢献し、地雷検出の今後の研究を可能にしている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Landmine detection using traditional methods is slow, dangerous and prohibitively expensive. Using deep learning-based object detection algorithms drone videos is promising but has multiple challenges due to the small, soda-can size of recently prevalent surface landmines. The literature currently lacks scientific evaluation of optimal ML models for this problem since most object detection research focuses on analysis of ground video surveillance images. In order to help train comprehensive models and drive research for surface landmine detection, we first create a custom dataset comprising drone images of POM-2 and POM-3 Russian surface landmines. Using this dataset, we train, test and compare 4 different computer vision foundation models YOLOF, DETR, Sparse-RCNN and VFNet. Generally, all 4 detectors do well with YOLOF outperforming other models with a mAP score of 0.89 while DETR, VFNET and Sparse-RCNN mAP scores are all around 0.82 for drone images taken from 10m AGL. YOLOF is also quicker to train consuming 56min of training time on a Nvidia V100 compute cluster. Finally, this research contributes landmine image, video datasets and model Jupyter notebooks at https://github.com/UnVeilX/ to enable future research in surface landmine detection.
- Abstract(参考訳): 従来の方法による地雷検出は遅く、危険であり、違法に高価である。
ディープラーニングに基づくオブジェクト検出アルゴリズムを使用することで、ドローンビデオは有望だが、最近普及した地表地雷の小さなソーダ缶サイズのために、複数の課題を抱えている。
この文献は、地上のビデオ監視画像の分析に焦点が当てられているため、この問題に対して最適なMLモデルの科学的評価を欠いている。
総合的なモデルを訓練し,地雷検出のための研究を促進するために,我々はまず,POM-2とPOM-3ロシアの地雷のドローン画像からなる独自のデータセットを作成する。
このデータセットを用いて、4つの異なるコンピュータビジョン基盤モデル YOLOF, DETR, Sparse-RCNN, VFNet をトレーニング、テスト、比較する。
一般的に、4つの検出器は全て、YOLOFがmAPスコア0.89で他のモデルより優れているのに対し、DECR、VFNET、Sparse-RCNN mAPスコアは10m AGLから撮影したドローン画像の約0.82である。
YOLOFはまた、Nvidia V100計算クラスタで56分間のトレーニング時間を消費するトレーニングも高速である。
最後に、地雷画像、ビデオデータセット、Jupyterノートをhttps://github.com/UnVeilX/で提供し、地雷検出の今後の研究を可能にする。
関連論文リスト
- MVSDet: Multi-View Indoor 3D Object Detection via Efficient Plane Sweeps [51.44887282336391]
多視点屋内3次元物体検出の課題は、画像から正確な幾何学情報を推測して正確な3次元物体検出を行うことである。
それまでの手法は、幾何推論にNeRFに依存していた。
平面スイープを用いた3次元物体検出のためのMVSDetを提案する。
論文 参考訳(メタデータ) (2024-10-28T21:58:41Z) - From Blurry to Brilliant Detection: YOLOv5-Based Aerial Object Detection
with Super Resolution [4.107182710549721]
超解像度と適応型軽量YOLOv5アーキテクチャを組み合わせた革新的なアプローチを提案する。
実験により,小型で密集した物体の検出において,モデルの性能が優れていることを示した。
論文 参考訳(メタデータ) (2024-01-26T05:50:58Z) - Real Time Human Detection by Unmanned Aerial Vehicles [0.0]
公安のための重要な2つのデータソースは、無人航空機(UAV)によって生成された熱赤外(TIR)リモートセンシング写真とビデオである。
ターゲットの小型化,複雑なシーン情報,視聴可能なビデオに対する低解像度化,ラベル付きデータセットやトレーニングモデルのデジェスなどにより,オブジェクト検出は依然として困難である。
本研究では,写真やビデオのためのUAV TIRオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-06T18:28:01Z) - Global-Local MAV Detection under Challenging Conditions based on
Appearance and Motion [27.11400452401168]
本研究では,MAV検出のための動作特徴と外観特徴を融合させるグローバルなMAV検出器を提案する。
提案した検出器の有効性をトレーニングし、検証するために、新しいデータセットが作成される。
特に、この検出器はNVIDIA Jetson NX Xavier上でほぼリアルタイムのフレームレートで動作させることができる。
論文 参考訳(メタデータ) (2023-12-18T08:06:36Z) - Towards a High-Performance Object Detector: Insights from Drone
Detection Using ViT and CNN-based Deep Learning Models [0.0679877553227375]
我々は,CNN と ViT をベースとした各種モデルを構築し,単流体検出において,基本型 ViT が最高の CNN ベース転送学習モデルより4.6 倍堅牢であることを示す。
最先端のCNN検出器の能力を全面的に超えるためには、ViTはCNNよりも優れていますが、トレーニングデータ、計算能力、高度でパフォーマンス指向な設計も必要です。
論文 参考訳(メタデータ) (2023-08-19T03:57:52Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Minkowski Tracker: A Sparse Spatio-Temporal R-CNN for Joint Object
Detection and Tracking [53.64390261936975]
我々はオブジェクトの検出と追跡を共同で解決するスパース時間R-CNNであるMinkowski Trackerを提案する。
領域ベースCNN(R-CNN)に着想を得て,物体検出器R-CNNの第2段階として動きを追跡することを提案する。
大規模実験では,本手法の総合的な性能向上は4つの要因によることがわかった。
論文 参考訳(メタデータ) (2022-08-22T04:47:40Z) - EAutoDet: Efficient Architecture Search for Object Detection [110.99532343155073]
EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
論文 参考訳(メタデータ) (2022-03-21T05:56:12Z) - ByteTrack: Multi-Object Tracking by Associating Every Detection Box [51.93588012109943]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
ほとんどの方法は、スコアがしきい値よりも高い検出ボックスを連想させることでアイデンティティを得る。
本稿では,BYTEと呼ばれるシンプルで効果的で汎用的なアソシエーション手法を提案する。
論文 参考訳(メタデータ) (2021-10-13T17:01:26Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。