論文の概要: YOLO-TLA: An Efficient and Lightweight Small Object Detection Model
based on YOLOv5
- arxiv url: http://arxiv.org/abs/2402.14309v1
- Date: Thu, 22 Feb 2024 05:55:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 16:13:31.548884
- Title: YOLO-TLA: An Efficient and Lightweight Small Object Detection Model
based on YOLOv5
- Title(参考訳): YOLO-TLA: YOLOv5に基づく効率的軽量小物体検出モデル
- Authors: Peng Gao, Chun-Lin Ji, Tao Yu, Ru-Yue Yuan
- Abstract要約: YOLO-TLAは、YOLOv5上に構築された高度な物体検出モデルである。
まず、ネックネットワークピラミッドアーキテクチャにおいて、小さなオブジェクトに対する検出層を新たに導入する。
このモジュールはスライディングウィンドウの特徴抽出を使い、計算要求とパラメータ数の両方を効果的に最小化する。
- 参考スコア(独自算出の注目度): 17.525977065621724
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Object detection, a crucial aspect of computer vision, has seen significant
advancements in accuracy and robustness. Despite these advancements, practical
applications still face notable challenges, primarily the inaccurate detection
or missed detection of small objects. In this paper, we propose YOLO-TLA, an
advanced object detection model building on YOLOv5. We first introduce an
additional detection layer for small objects in the neck network pyramid
architecture, thereby producing a feature map of a larger scale to discern
finer features of small objects. Further, we integrate the C3CrossCovn module
into the backbone network. This module uses sliding window feature extraction,
which effectively minimizes both computational demand and the number of
parameters, rendering the model more compact. Additionally, we have
incorporated a global attention mechanism into the backbone network. This
mechanism combines the channel information with global information to create a
weighted feature map. This feature map is tailored to highlight the attributes
of the object of interest, while effectively ignoring irrelevant details. In
comparison to the baseline YOLOv5s model, our newly developed YOLO-TLA model
has shown considerable improvements on the MS COCO validation dataset, with
increases of 4.6% in mAP@0.5 and 4% in mAP@0.5:0.95, all while keeping the
model size compact at 9.49M parameters. Further extending these improvements to
the YOLOv5m model, the enhanced version exhibited a 1.7% and 1.9% increase in
mAP@0.5 and mAP@0.5:0.95, respectively, with a total of 27.53M parameters.
These results validate the YOLO-TLA model's efficient and effective performance
in small object detection, achieving high accuracy with fewer parameters and
computational demands.
- Abstract(参考訳): 物体検出はコンピュータビジョンの重要な側面であり、精度と堅牢性に大きな進歩があった。
これらの進歩にもかかわらず、実用的応用は依然として顕著な課題に直面しており、主に不正確な検出や小さな物体の発見の欠如が問題となっている。
本稿では,YOLOv5に基づくオブジェクト検出モデルであるYOLO-TLAを提案する。
まず,ネックネットワークピラミッドアーキテクチャにおいて,小物体検出層を追加することで,小物体の特徴を識別するための大規模特徴マップを作成する。
さらに、C3CrossCovnモジュールをバックボーンネットワークに統合する。
このモジュールはスライディングウィンドウの特徴抽出を使用し、計算要求とパラメータ数の両方を効果的に最小化し、モデルをよりコンパクトにする。
さらに,backboneネットワークにグローバルアテンション機構を組み込んだ。
このメカニズムはチャネル情報とグローバル情報を組み合わせて重み付けされた特徴マップを作成する。
このフィーチャーマップは、関心のあるオブジェクトの属性を強調するように調整され、無関係な詳細を効果的に無視します。
ベースラインのYOLOv5sモデルと比較して,新たに開発されたYOLO-TLAモデルでは,MS COCO検証データセットが大幅に改善され,mAP@0.5で4.6%,mAP@0.5:0.95で4%増加した。
これらの改良をYOLOv5mモデルに拡張し、拡張版ではそれぞれmAP@0.5とmAP@0.5:0.95が1.7%、合計27.53Mパラメータが1.9%増加した。
これらの結果は、小さなオブジェクト検出において、YOLO-TLAモデルの効率的かつ効果的な性能を検証し、少ないパラメータと計算要求で高い精度を達成する。
関連論文リスト
- Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - HIC-YOLOv5: Improved YOLOv5 For Small Object Detection [2.4780916008623834]
改良されたYOLOv5モデル: 上記の問題に対処するためにHIC-YOLOv5を提案する。
バックボーンとネックの間には、インボリューションブロックが採用され、特徴マップのチャネル情報を増加させる。
我々の結果は、HIC-YOLOv5がmAP@[.5:.95]を6.42%改善し、mAP@0.5を9.38%改善したことを示している。
論文 参考訳(メタデータ) (2023-09-28T12:40:36Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - YOLOSA: Object detection based on 2D local feature superimposed
self-attention [13.307581544820248]
本稿では,2次元局所特徴重畳自己アテンションと呼ばれる新たな自己アテンションモジュールを提案する。
提案した改良手法を用いて構築した大型・中小モデルでは, 平均49.0% (66.2 FPS), 46.1% (80.6 FPS), 39.1% (100 FPS) の精度が得られた。
論文 参考訳(メタデータ) (2022-06-23T16:49:21Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Evaluation of YOLO Models with Sliced Inference for Small Object
Detection [0.0]
この研究は、小さなオブジェクト検出のためにYOLOv5とYOLOXモデルをベンチマークすることを目的としている。
スライスされた微調整とスライスされた推論が組み合わさって全てのモデルに大幅な改善をもたらした。
論文 参考訳(メタデータ) (2022-03-09T15:24:30Z) - YOLO-ReT: Towards High Accuracy Real-time Object Detection on Edge GPUs [14.85882314822983]
ディープニューラルネットワーク(DNN)ベースのオブジェクト検出モデルをエッジデバイスにマップするには、通常、そのようなモデルを著しく圧縮する必要がある。
本稿では,マルチスケール機能インタラクションのためのエッジGPUフレンドリなモジュールを提案する。
また,様々なタスク間の翻訳情報の流れの変化にインスパイアされた,新たな学習バックボーンの導入を提案する。
論文 参考訳(メタデータ) (2021-10-26T14:02:59Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。