論文の概要: Real-time object detection method based on improved YOLOv4-tiny
- arxiv url: http://arxiv.org/abs/2011.04244v2
- Date: Wed, 2 Dec 2020 09:19:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 00:17:45.268459
- Title: Real-time object detection method based on improved YOLOv4-tiny
- Title(参考訳): 改良型YOLOv4-tinyに基づくリアルタイム物体検出法
- Authors: Zicong Jiang, Liquan Zhao, Shuaiyang Li, Yanfei Jia
- Abstract要約: YOLOv4-tiny は YOLOv4 に基づいて提案され,ネットワーク構造をシンプルにし,パラメータを削減する。
まず、Yolov4-tinyの2つのCSPBlockモジュールの代わりにResNet-Dネットワークで2つのResBlock-Dモジュールを使用する。
補助ネットワークの設計では、グローバルな特徴を抽出するために5x5の受容場を得るために2つの連続した3x3畳み込みを使用し、より効果的な情報を抽出するためにチャネルアテンションと空間アテンションも使用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The "You only look once v4"(YOLOv4) is one type of object detection methods
in deep learning. YOLOv4-tiny is proposed based on YOLOv4 to simple the network
structure and reduce parameters, which makes it be suitable for developing on
the mobile and embedded devices. To improve the real-time of object detection,
a fast object detection method is proposed based on YOLOv4-tiny. It firstly
uses two ResBlock-D modules in ResNet-D network instead of two CSPBlock modules
in Yolov4-tiny, which reduces the computation complexity. Secondly, it designs
an auxiliary residual network block to extract more feature information of
object to reduce detection error. In the design of auxiliary network, two
consecutive 3x3 convolutions are used to obtain 5x5 receptive fields to extract
global features, and channel attention and spatial attention are also used to
extract more effective information. In the end, it merges the auxiliary network
and backbone network to construct the whole network structure of improved
YOLOv4-tiny. Simulation results show that the proposed method has faster object
detection than YOLOv4-tiny and YOLOv3-tiny, and almost the same mean value of
average precision as the YOLOv4-tiny. It is more suitable for real-time object
detection.
- Abstract(参考訳): You only look once v4" (YOLOv4) はディープラーニングにおけるオブジェクト検出手法の一種である。
YOLOv4-tiny は YOLOv4 に基づいて提案され,ネットワーク構造をシンプルにし,パラメータを削減する。
物体検出のリアルタイム化を目的として, YOLOv4-tinyに基づく高速物体検出手法を提案する。
まず、Yolov4-tinyの2つのCSPBlockモジュールの代わりにResNet-Dネットワークで2つのResBlock-Dモジュールを使用する。
第2に,検出誤差を低減すべく,物体の特徴情報抽出のための補助ネットワークブロックを設計した。
補助ネットワークの設計では、2つの連続する3x3畳み込みを用いて、グローバル特徴を抽出する5x5受容場を得るとともに、より効果的な情報を抽出するためにチャンネルの注意と空間的注意を用いる。
最後に、補助ネットワークとバックボーンネットワークをマージし、改良されたyolov4-tinyのネットワーク構造全体を構築する。
シミュレーションの結果,提案手法はYOLOv4-tinyやYOLOv3-tinyよりも高速で,平均精度はYOLOv4-tinyに近いことがわかった。
リアルタイムのオブジェクト検出に適している。
関連論文リスト
- SOD-YOLOv8 -- Enhancing YOLOv8 for Small Object Detection in Traffic Scenes [1.3812010983144802]
Small Object Detection YOLOv8 (SOD-YOLOv8) は、多数の小さなオブジェクトを含むシナリオ用に設計されている。
SOD-YOLOv8は小さなオブジェクト検出を大幅に改善し、様々なメトリクスで広く使われているモデルを上回っている。
ダイナミックな現実世界の交通シーンでは、SOD-YOLOv8は様々な状況で顕著な改善を示した。
論文 参考訳(メタデータ) (2024-08-08T23:05:25Z) - LeYOLO, New Scalable and Efficient CNN Architecture for Object Detection [0.0]
FLOPに基づく効率的な物体検出のためのニューラルネットワークアーキテクチャの設計選択に着目する。
そこで本研究では,YOLOモデルの有効性を高めるために,いくつかの最適化手法を提案する。
本稿では、オブジェクト検出のための新しいスケーリングパラダイムと、LeYOLOと呼ばれるYOLO中心のモデルに寄与する。
論文 参考訳(メタデータ) (2024-06-20T12:08:24Z) - Fostc3net:A Lightweight YOLOv5 Based On the Network Structure Optimization [11.969138981034247]
本稿では,モバイル機器向けにカスタマイズされた軽量YOLOv5技術を提案する。
提案モデルでは,検出精度が1%向上し,FLOPが13%減少し,既存のYOLOv5に比べてモデルパラメータが26%減少した。
論文 参考訳(メタデータ) (2024-03-20T16:07:04Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Rethinking Voxelization and Classification for 3D Object Detection [68.8204255655161]
LiDARポイントクラウドからの3Dオブジェクト検出の主な課題は、ネットワークの信頼性に影響を与えることなく、リアルタイムのパフォーマンスを実現することである。
本稿では,高速な動的ボキセラライザを実装することにより,ネットワークの推論速度と精度を同時に向上するソリューションを提案する。
さらに,予測対象を分類し,偽検出対象をフィルタリングする軽量検出サブヘッドモデルを提案する。
論文 参考訳(メタデータ) (2023-01-10T16:22:04Z) - An advanced YOLOv3 method for small object detection [2.906551456030129]
本稿では,小型物体検出のための改良型YOLOv3アルゴリズムを提案する。
提案手法では,拡張畳み込みミッシュ(DCM)モジュールをYOLOv3のバックボーンネットワークに導入する。
YOLOv3のネックネットワークでは、畳み込みブロックアテンションモジュール(CBAM)とマルチレベル融合モジュールが導入されている。
論文 参考訳(メタデータ) (2022-12-06T07:58:21Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - BiDet: An Efficient Binarized Object Detector [96.19708396510894]
本稿では,効率的な物体検出のためのバイナライズニューラルネットワークのBiDetを提案する。
我々のBiDetは、冗長除去による物体検出にバイナリニューラルネットワークの表現能力を完全に活用している。
我々の手法は、最先端のバイナリニューラルネットワークを大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-03-09T08:16:16Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z) - NETNet: Neighbor Erasing and Transferring Network for Better Single Shot
Object Detection [170.30694322460045]
我々は、ピラミッドの特徴を再設定し、スケールアウェアな特徴を探索する新しいNeighbor Erasing and Transferring(NET)メカニズムを提案する。
NETNetと呼ばれるシングルショットネットワークは、スケールアウェアなオブジェクト検出のために構築されている。
論文 参考訳(メタデータ) (2020-01-18T15:21:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。