論文の概要: YOLO-TLA: An Efficient and Lightweight Small Object Detection Model based on YOLOv5
- arxiv url: http://arxiv.org/abs/2402.14309v2
- Date: Mon, 29 Jul 2024 01:48:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 23:57:25.856127
- Title: YOLO-TLA: An Efficient and Lightweight Small Object Detection Model based on YOLOv5
- Title(参考訳): YOLO-TLA: YOLOv5に基づく効率的軽量小物体検出モデル
- Authors: Chun-Lin Ji, Tao Yu, Peng Gao, Fei Wang, Ru-Yue Yuan,
- Abstract要約: YOLO-TLAは、YOLOv5上に構築された高度な物体検出モデルである。
まず、ネックネットワークピラミッドアーキテクチャにおいて、小さなオブジェクトに対する検出層を新たに導入する。
このモジュールはスライディングウィンドウの特徴抽出を使い、計算要求とパラメータ数の両方を効果的に最小化する。
- 参考スコア(独自算出の注目度): 19.388112026410045
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Object detection, a crucial aspect of computer vision, has seen significant advancements in accuracy and robustness. Despite these advancements, practical applications still face notable challenges, primarily the inaccurate detection or missed detection of small objects. In this paper, we propose YOLO-TLA, an advanced object detection model building on YOLOv5. We first introduce an additional detection layer for small objects in the neck network pyramid architecture, thereby producing a feature map of a larger scale to discern finer features of small objects. Further, we integrate the C3CrossCovn module into the backbone network. This module uses sliding window feature extraction, which effectively minimizes both computational demand and the number of parameters, rendering the model more compact. Additionally, we have incorporated a global attention mechanism into the backbone network. This mechanism combines the channel information with global information to create a weighted feature map. This feature map is tailored to highlight the attributes of the object of interest, while effectively ignoring irrelevant details. In comparison to the baseline YOLOv5s model, our newly developed YOLO-TLA model has shown considerable improvements on the MS COCO validation dataset, with increases of 4.6% in mAP@0.5 and 4% in mAP@0.5:0.95, all while keeping the model size compact at 9.49M parameters. Further extending these improvements to the YOLOv5m model, the enhanced version exhibited a 1.7% and 1.9% increase in mAP@0.5 and mAP@0.5:0.95, respectively, with a total of 27.53M parameters. These results validate the YOLO-TLA model's efficient and effective performance in small object detection, achieving high accuracy with fewer parameters and computational demands.
- Abstract(参考訳): コンピュータビジョンの重要な側面である物体検出は、精度と堅牢性において著しく進歩している。
これらの進歩にもかかわらず、実用的応用は依然として顕著な課題に直面しており、主に不正確な検出や小さな物体の発見の欠如が問題となっている。
本稿では,YOLOv5に基づくオブジェクト検出モデルであるYOLO-TLAを提案する。
まず、ネックネットワークピラミッドアーキテクチャにおいて、小さなオブジェクトに対する検出層を導入し、小さなオブジェクトのより微細な特徴を識別するために、より大規模な特徴マップを作成する。
さらに、C3CrossCovnモジュールをバックボーンネットワークに統合する。
このモジュールはスライディングウィンドウの特徴抽出を使い、計算要求とパラメータ数の両方を効果的に最小化し、モデルをよりコンパクトにする。
さらに,バックボーンネットワークにグローバルアテンション機構を組み込んだ。
このメカニズムはチャネル情報とグローバル情報を組み合わせて重み付けされた特徴マップを作成する。
このフィーチャーマップは、関心の対象の属性を強調しながら、無関係な詳細を効果的に無視するように調整されている。
ベースラインのYOLOv5sモデルと比較して,新たに開発されたYOLO-TLAモデルでは,MS COCO検証データセットが大幅に改善され,mAP@0.5で4.6%,mAP@0.5:0.95で4%増加した。
これらの改良をYOLOv5mモデルに拡張し、拡張版ではそれぞれmAP@0.5とmAP@0.5:0.95が1.7%、合計27.53Mパラメータが1.9%増加した。
これらの結果は、小さなオブジェクト検出において、YOLO-TLAモデルの効率的かつ効果的な性能を検証し、少ないパラメータと計算要求で高精度に達成する。
関連論文リスト
- SL-YOLO: A Stronger and Lighter Drone Target Detection Model [0.0]
本稿では,小型目標検出のボトルネックを解消する革命モデルSL-YOLO(Stronger and Lighter YOLO)を提案する。
本稿では,最も難易度の高い環境においても,非並列検出精度を確保することのできる,大規模機能融合の先駆的手法を提案する。
VisDrone 2019データセットの実験結果によると,mAP@0.5が43.0%から46.9%に向上した。
モデルパラメータは 11.1M から 9.6M に減少し、FPS は 132 に到達し、資源制約のある環境でのリアルタイムの小さな物体検出に理想的な解となる。
論文 参考訳(メタデータ) (2024-11-18T11:26:11Z) - LeYOLO, New Scalable and Efficient CNN Architecture for Object Detection [0.0]
FLOPに基づく効率的な物体検出のためのニューラルネットワークアーキテクチャの設計選択に着目する。
そこで本研究では,YOLOモデルの有効性を高めるために,いくつかの最適化手法を提案する。
本稿では、オブジェクト検出のための新しいスケーリングパラダイムと、LeYOLOと呼ばれるYOLO中心のモデルに寄与する。
論文 参考訳(メタデータ) (2024-06-20T12:08:24Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - HIC-YOLOv5: Improved YOLOv5 For Small Object Detection [2.4780916008623834]
改良されたYOLOv5モデル: 上記の問題に対処するためにHIC-YOLOv5を提案する。
バックボーンとネックの間には、インボリューションブロックが採用され、特徴マップのチャネル情報を増加させる。
我々の結果は、HIC-YOLOv5がmAP@[.5:.95]を6.42%改善し、mAP@0.5を9.38%改善したことを示している。
論文 参考訳(メタデータ) (2023-09-28T12:40:36Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - YOLOSA: Object detection based on 2D local feature superimposed
self-attention [13.307581544820248]
本稿では,2次元局所特徴重畳自己アテンションと呼ばれる新たな自己アテンションモジュールを提案する。
提案した改良手法を用いて構築した大型・中小モデルでは, 平均49.0% (66.2 FPS), 46.1% (80.6 FPS), 39.1% (100 FPS) の精度が得られた。
論文 参考訳(メタデータ) (2022-06-23T16:49:21Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Evaluation of YOLO Models with Sliced Inference for Small Object
Detection [0.0]
この研究は、小さなオブジェクト検出のためにYOLOv5とYOLOXモデルをベンチマークすることを目的としている。
スライスされた微調整とスライスされた推論が組み合わさって全てのモデルに大幅な改善をもたらした。
論文 参考訳(メタデータ) (2022-03-09T15:24:30Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。