論文の概要: Joint-YODNet: A Light-weight Object Detector for UAVs to Achieve Above
100fps
- arxiv url: http://arxiv.org/abs/2309.15782v1
- Date: Wed, 27 Sep 2023 16:57:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 12:42:56.033570
- Title: Joint-YODNet: A Light-weight Object Detector for UAVs to Achieve Above
100fps
- Title(参考訳): YODNet:100fps超のUAV用軽量物体検出器
- Authors: Vipin Gautam, Shitala Prasad and Sharad Sinha
- Abstract要約: 小型物体を検知するためのUAVのためのJointYODNetという新しい手法を提案する。
本手法は, 小型物体の検出性能を高めるため, 接合損失関数の開発を中心に展開する。
その結果,提案した関節損失関数は,小さな物体を正確に位置決めする既存の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 2.5761958263376745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Small object detection via UAV (Unmanned Aerial Vehicle) images captured from
drones and radar is a complex task with several formidable challenges. This
domain encompasses numerous complexities that impede the accurate detection and
localization of small objects. To address these challenges, we propose a novel
method called JointYODNet for UAVs to detect small objects, leveraging a joint
loss function specifically designed for this task. Our method revolves around
the development of a joint loss function tailored to enhance the detection
performance of small objects. Through extensive experimentation on a diverse
dataset of UAV images captured under varying environmental conditions, we
evaluated different variations of the loss function and determined the most
effective formulation. The results demonstrate that our proposed joint loss
function outperforms existing methods in accurately localizing small objects.
Specifically, our method achieves a recall of 0.971, and a F1Score of 0.975,
surpassing state-of-the-art techniques. Additionally, our method achieves a
mAP@.5(%) of 98.6, indicating its robustness in detecting small objects across
varying scales
- Abstract(参考訳): ドローンやレーダーから捉えたuav(unmanned aerial vehicle)による小さな物体検出は、いくつかの難題を抱えた複雑な作業である。
この領域は、小さな物体の正確な検出と局在を妨げる多くの複雑さを含んでいる。
そこで本稿では,この課題に対処するために,uavによる小型物体検出のためのジョイントyodnetという新しい手法を提案する。
本手法は, 小型物体の検出性能を高めるため, 接合損失関数の開発を中心に展開する。
様々な環境条件下で得られた多様なUAV画像のデータセットを広範囲に実験し、損失関数の異なるバリエーションを評価し、最も効果的な定式化を決定した。
その結果,提案した関節損失関数は,小さな物体を正確に位置決めする既存の手法よりも優れていた。
具体的には,最新技術を上回る0.971のリコールと0.975のF1Scoreを実現する。
さらに, 98.6 の mAP@.5(%) を達成し, 様々なスケールで小さな物体を検出できるロバスト性を示した。
関連論文リスト
- Improving the Detection of Small Oriented Objects in Aerial Images [0.0]
本研究では,オブジェクト指向物体検出モデルの分類・回帰タスクを強化することにより,空中画像中の小型物体を高精度に検出する手法を提案する。
ガイド・アテンション・ロス(GALoss)とボックス・ポイント・ロス(BPLoss)の2つの損失からなるアテンション・ポイント・ネットワークを設計した。
実験結果から,小型オブジェクトインスタンスを用いた標準指向型空中データセットにおける注意点ネットワークの有効性が示された。
論文 参考訳(メタデータ) (2024-01-12T11:00:07Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Rethinking Intersection Over Union for Small Object Detection in
Few-Shot Regime [2.292003207440126]
Few-Shot Object Detection (FSOD)では、小さな物体を検出することは極めて困難である。
我々は,新しいボックス類似度尺度であるSIoU(Scale-Adaptive Intersection over Union)を提案する。
SIoUはオブジェクトのサイズによって変化し、小さなオブジェクトシフトでより寛大になる。
論文 参考訳(メタデータ) (2023-07-17T07:26:58Z) - USD: Unknown Sensitive Detector Empowered by Decoupled Objectness and
Segment Anything Model [14.080744645704751]
Open World Object Detection (OWOD) は、新しいコンピュータビジョンタスクである。
本稿では,この2つの境界の学習をデコーダ層に分割する,シンプルで効果的な学習戦略であるDecoupled Objectness Learning(DOL)を提案する。
また、擬似ラベルとソフトウェイト戦略を用いてノイズの負の影響を緩和する補助的スーパービジョンフレームワーク(ASF)も導入する。
論文 参考訳(メタデータ) (2023-06-04T06:42:09Z) - Fewer is More: Efficient Object Detection in Large Aerial Images [59.683235514193505]
本稿では,検出者がより少ないパッチに注目するのに対して,より効率的な推論とより正確な結果を得るのに役立つObjectness Activation Network(OAN)を提案する。
OANを用いて、5つの検出器は3つの大規模な空中画像データセットで30.0%以上のスピードアップを取得する。
我々はOANをドライブシーン物体検出と4Kビデオ物体検出に拡張し,検出速度をそれぞれ112.1%,75.0%向上させた。
論文 参考訳(メタデータ) (2022-12-26T12:49:47Z) - ARUBA: An Architecture-Agnostic Balanced Loss for Aerial Object
Detection [24.085715205081385]
我々は、オブジェクトのサイズを画像中の画素数、サイズ不均衡として、データセット内の特定のサイズのオブジェクトの過剰表現として表現する。
本稿では,任意のオブジェクト検出モデル上にプラグインとして適用可能な,新しいARchitectUre-Agnostic BAlanced Loss (ARUBA)を提案する。
論文 参考訳(メタデータ) (2022-10-10T11:28:16Z) - Towards Large-Scale Small Object Detection: Survey and Benchmarks [48.961205652306695]
我々は2つの大規模小型物体検出装置(SODA)、SODA-DおよびSODA-Aを構築し、それぞれが運転シナリオと航空シナリオに焦点を当てている。
SODA-Aでは,高分解能空中画像2513点を抽出し,9クラスに872069点を注釈した。
提案されたデータセットは、徹底的な注釈付きインスタンスの膨大なコレクションを持つ大規模なベンチマークへの最初の試みである。
論文 参考訳(メタデータ) (2022-07-28T14:02:18Z) - Benchmarking Deep Models for Salient Object Detection [67.07247772280212]
汎用SALOD(General SALient Object Detection)ベンチマークを構築し,複数のSOD手法の総合的な比較を行った。
以上の実験では、既存の損失関数は、通常いくつかの指標に特化しているが、他の指標には劣る結果が報告されている。
我々は,深層ネットワークに画素レベルと画像レベルの両方の監視信号を統合することにより,より識別的な特徴を学習するためのエッジ・アウェア・ロス(EA)を提案する。
論文 参考訳(メタデータ) (2022-02-07T03:43:16Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - SyNet: An Ensemble Network for Object Detection in UAV Images [13.198689566654107]
本稿では,マルチステージ方式とシングルステージ方式を組み合わせたアンサンブルネットワークであるSyNetを提案する。
ビルディングブロックとして、センシング戦略とともに、プリトレーニング特徴抽出器を備えたセンタネットおよびカスケードr−cnnを利用する。
提案手法により得られた技術成果を2つの異なるデータセットで報告する。
論文 参考訳(メタデータ) (2020-12-23T21:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。