論文の概要: LittleYOLO-SPP: A Delicate Real-Time Vehicle Detection Algorithm
- arxiv url: http://arxiv.org/abs/2011.05940v1
- Date: Wed, 11 Nov 2020 17:57:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:51:38.445457
- Title: LittleYOLO-SPP: A Delicate Real-Time Vehicle Detection Algorithm
- Title(参考訳): LittleYOLO-SPP: リアルタイム車両検出アルゴリズム
- Authors: Sri Jamiya S, Esther Rani P
- Abstract要約: 既存のリアルタイム車両検出には精度と速度が欠けている。
LittleYOLO-SPPネットワークは、ビデオフレームや気象条件に関わらず、リアルタイムで車両を高精度に検出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Vehicle detection in real-time is a challenging and important task. The
existing real-time vehicle detection lacks accuracy and speed. Real-time
systems must detect and locate vehicles during criminal activities like theft
of vehicle and road traffic violations with high accuracy. Detection of
vehicles in complex scenes with occlusion is also extremely difficult. In this
study, a lightweight model of deep neural network LittleYOLO-SPP based on the
YOLOv3-tiny network is proposed to detect vehicles effectively in real-time.
The YOLOv3-tiny object detection network is improved by modifying its feature
extraction network to increase the speed and accuracy of vehicle detection. The
proposed network incorporated Spatial pyramid pooling into the network, which
consists of different scales of pooling layers for concatenation of features to
enhance network learning capability. The Mean square error (MSE) and
Generalized IoU (GIoU) loss function for bounding box regression is used to
increase the performance of the network. The network training includes
vehicle-based classes from PASCAL VOC 2007,2012 and MS COCO 2014 datasets such
as car, bus, and truck. LittleYOLO-SPP network detects the vehicle in real-time
with high accuracy regardless of video frame and weather conditions. The
improved network achieves a higher mAP of 77.44% on PASCAL VOC and 52.95% mAP
on MS COCO datasets.
- Abstract(参考訳): リアルタイムの車両検出は困難かつ重要な課題である。
既存のリアルタイム車両検出には精度と速度が欠けている。
リアルタイムシステムは、車両の盗難や道路交通違反などの犯罪行為中の車両を高精度に検出し、見つける必要がある。
閉塞を伴う複雑なシーンにおける車両の検出も極めて困難である。
そこで本研究では,yolov3-tinyネットワークに基づく深層ニューラルネットワーク littleyolo-spp の軽量モデルを提案する。
YOLOv3-tinyオブジェクト検出ネットワークは、特徴抽出ネットワークを変更して、車両検出の速度と精度を高めることにより改善される。
提案するネットワークは,ネットワークに空間ピラミッドプーリングを組み込んだもので,ネットワーク学習能力を高めるために,特徴を結合する様々なスケールのプール層で構成されている。
有界ボックス回帰のための平均二乗誤差(MSE)と一般化IoU(GIoU)損失関数を用いてネットワークの性能を向上させる。
ネットワークトレーニングには、PASCAL VOC 2007、2012、MS COCO 2014データセット(車、バス、トラックなど)からの車両ベースのクラスが含まれる。
LittleYOLO-SPPネットワークは、ビデオフレームや気象条件に関わらず、高精度でリアルタイムで車両を検出する。
改良されたネットワークは、PASCAL VOCで77.44%、MS COCOデータセットで52.95%のmAPを達成する。
関連論文リスト
- FedPylot: Navigating Federated Learning for Real-Time Object Detection in Internet of Vehicles [5.803236995616553]
フェデレートラーニングは、車載ネットワークで洗練された機械学習モデルをトレーニングするための有望なソリューションである。
我々は、フェデレーションオブジェクト検出実験をシミュレートする軽量MPIベースのプロトタイプであるFedPylotを紹介する。
本研究は, 精度, 通信コスト, 推論速度に影響を及ぼし, 自動運転車が直面する課題に対するバランスのとれたアプローチを示す。
論文 参考訳(メタデータ) (2024-06-05T20:06:59Z) - Elastic Interaction Energy-Informed Real-Time Traffic Scene Perception [8.429178814528617]
EIEGSegという名前のトポロジ対応エネルギー損失関数に基づくネットワークトレーニング戦略を提案する。
EIEGSegは、リアルタイムの交通シーン認識におけるマルチクラスセグメンテーションのために設計されている。
以上の結果から,EIEGSegは,特にリアルタイム軽量ネットワークにおいて,性能を継続的に向上することを示す。
論文 参考訳(メタデータ) (2023-10-02T01:30:42Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Fast vehicle detection algorithm based on lightweight YOLO7-tiny [7.7600847187608135]
本稿では, YOLOv7-tiny (You Only Look Once Version 7) に基づく軽量車両検出アルゴリズムGhost-YOLOv7を提案する。
モデル幅を0.5に拡大し、バックボーンネットワークの標準畳み込みをゴースト畳み込みに置き換え、より軽量なネットワークを実現し、検出速度を向上させる。
ゴーストデクルードヘッド (Ghost Deouoled Head, GDH) は、車両の位置と種を正確に予測するために使用される。
論文 参考訳(メタデータ) (2023-04-12T17:28:30Z) - Rethinking Voxelization and Classification for 3D Object Detection [68.8204255655161]
LiDARポイントクラウドからの3Dオブジェクト検出の主な課題は、ネットワークの信頼性に影響を与えることなく、リアルタイムのパフォーマンスを実現することである。
本稿では,高速な動的ボキセラライザを実装することにより,ネットワークの推論速度と精度を同時に向上するソリューションを提案する。
さらに,予測対象を分類し,偽検出対象をフィルタリングする軽量検出サブヘッドモデルを提案する。
論文 参考訳(メタデータ) (2023-01-10T16:22:04Z) - Blind-Spot Collision Detection System for Commercial Vehicles Using
Multi Deep CNN Architecture [0.17499351967216337]
高レベル特徴記述子に基づく2つの畳み込みニューラルネットワーク(CNN)は、重車両の盲点衝突を検出するために提案される。
盲点車両検出のための高次特徴抽出のための2つの事前学習ネットワークを統合するために,融合手法を提案する。
機能の融合により、より高速なR-CNNの性能が大幅に向上し、既存の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-08-17T11:10:37Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Improved YOLOv5 network for real-time multi-scale traffic sign detection [4.5598087061051755]
本稿では,アダプティブアテンションモジュール (AAM) と機能拡張モジュール (FEM) を利用して特徴マップ生成の過程での情報損失を低減する機能ピラミッドモデル AF-FPN を提案する。
YOLOv5の本来の特徴ピラミッドネットワークをAF-FPNに置き換え、YOLOv5ネットワークのマルチスケールターゲットの検出性能を向上させる。
論文 参考訳(メタデータ) (2021-12-16T11:02:12Z) - A Single-Target License Plate Detection with Attention [56.83051142257412]
ニューラルネットワークは一般にライセンスプレート検出(LPD)タスクに採用されており、パフォーマンスと精度が向上している。
LPDのような単一のオブジェクト検出タスクでは、修正された汎用オブジェクト検出は時間がかかり、複雑なシナリオや組み込みデバイスへのデプロイが困難すぎる面倒な重み付けファイルに対処できない。
論文 参考訳(メタデータ) (2021-12-12T03:00:03Z) - Spatio-temporal Modeling for Large-scale Vehicular Networks Using Graph
Convolutional Networks [110.80088437391379]
SMARTと呼ばれるグラフベースのフレームワークが提案され、大規模な地理的領域にわたるV2I通信遅延の統計をモデル化し、追跡する。
深層Q-networksアルゴリズムと統合したグラフ畳み込みネットワークを用いたグラフ再構築型手法を開発する。
その結果,提案手法は,モデル化の精度と効率と,大規模車両ネットワークにおける遅延性能を有意に向上させることが示された。
論文 参考訳(メタデータ) (2021-03-13T06:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。