論文の概要: Advancing Roadway Sign Detection with YOLO Models and Transfer Learning
- arxiv url: http://arxiv.org/abs/2406.09437v1
- Date: Tue, 11 Jun 2024 20:00:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 17:54:01.945957
- Title: Advancing Roadway Sign Detection with YOLO Models and Transfer Learning
- Title(参考訳): YOLOモデルによる道路信号検出の高速化と伝達学習
- Authors: Selvia Nafaa, Hafsa Essam, Karim Ashour, Doaa Emad, Rana Mohamed, Mohammed Elhenawy, Huthaifa I. Ashqar, Abdallah A. Hassan, Taqwa I. Alhadidi,
- Abstract要約: 我々は、異なる照明条件下で異なる道路標識を検出し、分類するためにYOLOv5とYOLOv8を変更した。
YOLOv8モデルでは、エポックの数やバッチサイズによって、テストセットで94.6%から97.1%まで、一貫したMAP50スコアが得られる。
YOLOv5モデルは競合性能を示し、MAP50のスコアは92.4%から96.9%である。
- 参考スコア(独自算出の注目度): 3.7078234026046877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Roadway signs detection and recognition is an essential element in the Advanced Driving Assistant Systems (ADAS). Several artificial intelligence methods have been used widely among of them YOLOv5 and YOLOv8. In this paper, we used a modified YOLOv5 and YOLOv8 to detect and classify different roadway signs under different illumination conditions. Experimental results indicated that for the YOLOv8 model, varying the number of epochs and batch size yields consistent MAP50 scores, ranging from 94.6% to 97.1% on the testing set. The YOLOv5 model demonstrates competitive performance, with MAP50 scores ranging from 92.4% to 96.9%. These results suggest that both models perform well across different training setups, with YOLOv8 generally achieving slightly higher MAP50 scores. These findings suggest that both models can perform well under different training setups, offering valuable insights for practitioners seeking reliable and adaptable solutions in object detection applications.
- Abstract(参考訳): 道路標識の検出と認識はアドバンスト・ドライビング・アシスタント・システム(ADAS)の重要な要素である。
いくつかの人工知能手法が、YOLOv5とYOLOv8の中で広く使われている。
本稿では,異なる照明条件下で異なる道路標識を検出し,分類するために,改良されたYOLOv5とYOLOv8を用いた。
実験の結果、YOLOv8モデルでは、エポック数やバッチサイズによってMAP50のスコアは94.6%から97.1%に変化していることがわかった。
YOLOv5モデルは競合性能を示し、MAP50のスコアは92.4%から96.9%である。
これらの結果から, YOLOv8はMAP50スコアをわずかに高め, 異なるトレーニング設定で良好に動作することが示唆された。
これらの結果は、どちらのモデルも異なるトレーニング設定下でもうまく機能し、オブジェクト検出アプリケーションにおいて信頼性と適応性のあるソリューションを求める実践者にとって貴重な洞察を提供することを示唆している。
関連論文リスト
- Deep Learning Models for UAV-Assisted Bridge Inspection: A YOLO Benchmark Analysis [0.41942958779358674]
最新の4種類のYOLO(YOLOv5, YOLOv6, YOLOv7, YOLOv8)に属する23のモデルをベンチマークする。
精度と処理速度の最適なバランスを提供するモデルとして, YOLOv8n, YOLOv7tiny, YOLOv6m, YOLOv6mを同定した。
その結果,UAVのモデル選択プロセスが促進され,より効率的で信頼性の高い橋梁検査が可能となった。
論文 参考訳(メタデータ) (2024-11-07T07:03:40Z) - Cutting-Edge Detection of Fatigue in Drivers: A Comparative Study of Object Detection Models [0.0]
本研究は, YOLOv5, YOLOv6, YOLOv7, YOLOv8を含む, 近代的な物体検出アルゴリズムに基づく疲労検出システムの開発について述べる。
これらのモデルの性能を比較することで,運転者の疲労関連行動のリアルタイム検出の有効性を評価する。
この研究は、環境変動や検出精度といった課題に対処し、リアルタイム検出を強化するロードマップを提案する。
論文 参考訳(メタデータ) (2024-10-19T08:06:43Z) - Comparing YOLOv5 Variants for Vehicle Detection: A Performance Analysis [0.0]
本研究は, YOLOv5n6s, YOLOv5s6s, YOLOv5m6s, YOLOv5l6s, YOLOv5x6sの5変種の比較分析を行った。
YOLOv5n6は精度とリコールのバランスが強いことを示した。
論文 参考訳(メタデータ) (2024-08-22T17:06:29Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Investigating YOLO Models Towards Outdoor Obstacle Detection For
Visually Impaired People [3.4628430044380973]
7種類のYOLOオブジェクト検出モデルが実装された。
YOLOv8は最高のモデルであることが判明し、その精度は80ドルに達し、よく知られたObstacleデータセットでは68.2%だった。
YOLO-NASは障害物検出作業に最適であることがわかった。
論文 参考訳(メタデータ) (2023-12-10T13:16:22Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Performance Analysis of YOLO-based Architectures for Vehicle Detection
from Traffic Images in Bangladesh [0.0]
バングラデシュの交通画像から高速かつ正確な車両検出を行うのに最適なYOLOアーキテクチャを見つける。
モデルは、21種類の車両に属する7390の画像を含むデータセットで訓練された。
YOLOV5xは, YOLOv3モデルとYOLOv5sモデルよりそれぞれ7~4%, 精度は12~8.5%向上した。
論文 参考訳(メタデータ) (2022-12-18T18:53:35Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Workshop on Autonomous Driving at CVPR 2021: Technical Report for
Streaming Perception Challenge [57.647371468876116]
本稿では,現実的な自律運転シナリオのためのリアルタイム2次元物体検出システムについて紹介する。
私たちの検出器は、YOLOXと呼ばれる新しい設計のYOLOモデルで構築されています。
Argoverse-HDデータセットでは,検出のみのトラック/トラックで2位を7.8/6.1上回る41.0ストリーミングAPを達成した。
論文 参考訳(メタデータ) (2021-07-27T06:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。