論文の概要: SuperYOLO: Super Resolution Assisted Object Detection in Multimodal
Remote Sensing Imagery
- arxiv url: http://arxiv.org/abs/2209.13351v2
- Date: Sat, 8 Apr 2023 09:50:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 23:24:44.327170
- Title: SuperYOLO: Super Resolution Assisted Object Detection in Multimodal
Remote Sensing Imagery
- Title(参考訳): superyolo: マルチモーダルリモートセンシング画像における超解像支援オブジェクト検出
- Authors: Jiaqing Zhang, Jie Lei, Weiying Xie, Zhenman Fang, Yunsong Li, Qian Du
- Abstract要約: マルチモーダルデータを融合し,マルチスケールオブジェクトに対して高分解能(HR)オブジェクト検出を行うSuperYOLOを提案する。
提案モデルでは,最先端モデルと比較して,精度と速度のトレードオフが良好である。
- 参考スコア(独自算出の注目度): 36.216230299131404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately and timely detecting multiscale small objects that contain tens of
pixels from remote sensing images (RSI) remains challenging. Most of the
existing solutions primarily design complex deep neural networks to learn
strong feature representations for objects separated from the background, which
often results in a heavy computation burden. In this article, we propose an
accurate yet fast object detection method for RSI, named SuperYOLO, which fuses
multimodal data and performs high-resolution (HR) object detection on
multiscale objects by utilizing the assisted super resolution (SR) learning and
considering both the detection accuracy and computation cost. First, we utilize
a symmetric compact multimodal fusion (MF) to extract supplementary information
from various data for improving small object detection in RSI. Furthermore, we
design a simple and flexible SR branch to learn HR feature representations that
can discriminate small objects from vast backgrounds with low-resolution (LR)
input, thus further improving the detection accuracy. Moreover, to avoid
introducing additional computation, the SR branch is discarded in the inference
stage, and the computation of the network model is reduced due to the LR input.
Experimental results show that, on the widely used VEDAI RS dataset, SuperYOLO
achieves an accuracy of 75.09% (in terms of mAP50 ), which is more than 10%
higher than the SOTA large models, such as YOLOv5l, YOLOv5x, and RS designed
YOLOrs. Meanwhile, the parameter size and GFLOPs of SuperYOLO are about 18
times and 3.8 times less than YOLOv5x. Our proposed model shows a favorable
accuracy and speed tradeoff compared to the state-of-the-art models. The code
will be open-sourced at https://github.com/icey-zhang/SuperYOLO.
- Abstract(参考訳): リモートセンシング画像(RSI)から数十画素の小型物体を高精度かつタイムリーに検出することは依然として困難である。
既存のソリューションのほとんどは、背景から分離されたオブジェクトの強力な特徴表現を学ぶために、複雑なディープニューラルネットワークを設計している。
本稿では、マルチモーダルデータを融合し、補助超解像(SR)学習を用いて高分解能(HR)オブジェクト検出を行い、検出精度と計算コストの両方を考慮したRSIの高精度かつ高速なオブジェクト検出手法であるSuperYOLOを提案する。
まず,対称コンパクトマルチモーダル融合(mf)を用いて各種データから補足情報を抽出し,rsiにおける小物体検出を改善する。
さらに、低分解能(LR)入力で小さな物体を広い背景から識別できるHR特徴表現を学習するための単純で柔軟なSR分岐を設計し、検出精度をさらに向上する。
さらに、追加の計算を導入するのを避けるため、推論段階でSR分岐を破棄し、LR入力によりネットワークモデルの計算を低減させる。
実験結果によると、広く使われているVEDAI RSデータセットでは、SuperYOLOの精度は75.09%(mAP50)であり、YOLOv5l、YOLOv5x、RSの設計したYOLOrsなど、SOTAの大型モデルよりも10%以上高い。
一方、SuperYOLOのパラメータサイズとGFLOPは、YOLOv5xの約18倍、3.8倍小さい。
提案モデルでは,最先端モデルと比較して精度と速度のトレードオフが良好である。
コードはhttps://github.com/icey-zhang/SuperYOLO.comでオープンソース化される。
関連論文リスト
- SOD-YOLOv8 -- Enhancing YOLOv8 for Small Object Detection in Traffic Scenes [1.3812010983144802]
Small Object Detection YOLOv8 (SOD-YOLOv8) は、多数の小さなオブジェクトを含むシナリオ用に設計されている。
SOD-YOLOv8は小さなオブジェクト検出を大幅に改善し、様々なメトリクスで広く使われているモデルを上回っている。
ダイナミックな現実世界の交通シーンでは、SOD-YOLOv8は様々な状況で顕著な改善を示した。
論文 参考訳(メタデータ) (2024-08-08T23:05:25Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - From Blurry to Brilliant Detection: YOLOv5-Based Aerial Object Detection
with Super Resolution [4.107182710549721]
超解像度と適応型軽量YOLOv5アーキテクチャを組み合わせた革新的なアプローチを提案する。
実験により,小型で密集した物体の検出において,モデルの性能が優れていることを示した。
論文 参考訳(メタデータ) (2024-01-26T05:50:58Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Pyramid Grafting Network for One-Stage High Resolution Saliency
Detection [29.013012579688347]
我々は、異なる解像度画像から特徴を独立して抽出する、Praamid Grafting Network (PGNet) と呼ばれるワンステージフレームワークを提案する。
CNNブランチが壊れた詳細情報をよりホモロジーに組み合わせられるように、アテンションベースのクロスモデルグラフティングモジュール (CMGM) が提案されている。
我々は,4K-8K解像度で5,920個の画像を含む超高分解能塩度検出データセットUHRSDを新たに提供した。
論文 参考訳(メタデータ) (2022-04-11T12:22:21Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Remote Sensing Image Super-resolution and Object Detection: Benchmark
and State of the Art [7.74389937337756]
本稿では、リモートセンシング画像の現在のデータセットとオブジェクト検出方法(深層学習に基づく)についてレビューする。
本稿では,大規模かつ一般公開なリモートセンシング超解像オブジェクト検出データセットを提案する。
また、画像超解像に基づく物体検出のベンチマークを行うために、Residual Feature aggregate (MCGR) と補助YOLOv5検出器を備えた新しいマルチクラスサイクル超解像対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-05T04:56:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。