論文の概要: P-YOLOv8: Efficient and Accurate Real-Time Detection of Distracted Driving
- arxiv url: http://arxiv.org/abs/2410.15602v1
- Date: Mon, 21 Oct 2024 02:56:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:20:34.676096
- Title: P-YOLOv8: Efficient and Accurate Real-Time Detection of Distracted Driving
- Title(参考訳): P-YOLOv8:分散運転の効率的かつ高精度リアルタイム検出
- Authors: Mohamed R. Elshamy, Heba M. Emara, Mohamed R. Shoaib, Abdel-Hameed A. Badawy,
- Abstract要約: 引き離された運転は重大な安全上の問題であり、世界中で多くの死者と負傷につながっている。
本研究では、注意をそらされた運転行動を検出するための効率的でリアルタイムな機械学習モデルの必要性に対処する。
リアルタイムオブジェクト検出システムを導入し、速度と精度の両方に最適化する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Distracted driving is a critical safety issue that leads to numerous fatalities and injuries worldwide. This study addresses the urgent need for efficient and real-time machine learning models to detect distracted driving behaviors. Leveraging the Pretrained YOLOv8 (P-YOLOv8) model, a real-time object detection system is introduced, optimized for both speed and accuracy. This approach addresses the computational constraints and latency limitations commonly associated with conventional detection models. The study demonstrates P-YOLOv8 versatility in both object detection and image classification tasks using the Distracted Driver Detection dataset from State Farm, which includes 22,424 images across ten behavior categories. Our research explores the application of P-YOLOv8 for image classification, evaluating its performance compared to deep learning models such as VGG16, VGG19, and ResNet. Some traditional models often struggle with low accuracy, while others achieve high accuracy but come with high computational costs and slow detection speeds, making them unsuitable for real-time applications. P-YOLOv8 addresses these issues by achieving competitive accuracy with significant computational cost and efficiency advantages. In particular, P-YOLOv8 generates a lightweight model with a size of only 2.84 MB and a lower number of parameters, totaling 1,451,098, due to its innovative architecture. It achieves a high accuracy of 99.46 percent with this small model size, opening new directions for deployment on inexpensive and small embedded devices using Tiny Machine Learning (TinyML). The experimental results show robust performance, making P-YOLOv8 a cost-effective solution for real-time deployment. This study provides a detailed analysis of P-YOLOv8's architecture, training, and performance benchmarks, highlighting its potential for real-time use in detecting distracted driving.
- Abstract(参考訳): 引き離された運転は重大な安全上の問題であり、世界中で多くの死者と負傷につながっている。
この研究は、注意をそらされた運転行動を検出するために、効率的でリアルタイムな機械学習モデルの必要性に対処する。
Pretrained YOLOv8 (P-YOLOv8) モデルを利用して、リアルタイムオブジェクト検出システムを導入し、速度と精度の両方に最適化した。
提案手法は,従来の検出モデルに共通する計算制約と遅延制限に対処する。
この研究は、State FarmのDistracted Driver Detectionデータセットを用いて、オブジェクト検出と画像分類の両方のタスクにおいて、P-YOLOv8の汎用性を実証した。
本稿では,VGG16,VGG19,ResNetなどのディープラーニングモデルと比較して,P-YOLOv8の画像分類への応用について検討した。
従来のモデルは、しばしば低い精度で苦労するが、高い計算コストと遅い検出速度を持つモデルもあり、リアルタイムアプリケーションには適さない。
P-YOLOv8は、計算コストと効率性に優れた競合精度でこれらの問題に対処する。
特に、P-YOLOv8は2.84MBの軽量モデルと1,451,098の少ないパラメータを生成する。
この小さなモデルサイズで99.6%の精度を達成し、Tiny Machine Learning (TinyML)を使用して、安価で小さな組み込みデバイスにデプロイするための新たな方向を開く。
実験結果は、P-YOLOv8をリアルタイムデプロイメントのコスト効率の高いソリューションにする、堅牢な性能を示している。
この研究は、P-YOLOv8のアーキテクチャ、トレーニング、パフォーマンスベンチマークを詳細に分析し、注意をそらした運転を検出するためのリアルタイム使用の可能性を強調した。
関連論文リスト
- YOLO-Vehicle-Pro: A Cloud-Edge Collaborative Framework for Object Detection in Autonomous Driving under Adverse Weather Conditions [8.820126303110545]
本稿では, YOLO-VehicleとYOLO-Vehicle-Proの2つの革新的なディープラーニングモデルを提案する。
YOLO-Vehicleは、自動運転シナリオに特化したオブジェクト検出モデルである。
YOLO-Vehicle-Proはこの基盤の上に構築されており、改良されたイメージデハージングアルゴリズムを導入している。
論文 参考訳(メタデータ) (2024-10-23T10:07:13Z) - Cutting-Edge Detection of Fatigue in Drivers: A Comparative Study of Object Detection Models [0.0]
本研究は, YOLOv5, YOLOv6, YOLOv7, YOLOv8を含む, 近代的な物体検出アルゴリズムに基づく疲労検出システムの開発について述べる。
これらのモデルの性能を比較することで,運転者の疲労関連行動のリアルタイム検出の有効性を評価する。
この研究は、環境変動や検出精度といった課題に対処し、リアルタイム検出を強化するロードマップを提案する。
論文 参考訳(メタデータ) (2024-10-19T08:06:43Z) - YOLO-ELA: Efficient Local Attention Modeling for High-Performance Real-Time Insulator Defect Detection [0.0]
無人航空機からの絶縁体欠陥検出のための既存の検出方法は、複雑な背景や小さな物体と競合する。
本稿では,この課題に対処するため,新しい注目基盤アーキテクチャであるYOLO-ELAを提案する。
高分解能UAV画像による実験結果から,本手法は96.9% mAP0.5,リアルタイム検出速度74.63フレーム/秒を実現した。
論文 参考訳(メタデータ) (2024-10-15T16:00:01Z) - Optimizing YOLO Architectures for Optimal Road Damage Detection and Classification: A Comparative Study from YOLOv7 to YOLOv10 [0.0]
本稿では,ディープラーニングモデルを用いた道路損傷検出のための総合ワークフローを提案する。
ハードウェアの制約を満たすため、大きな画像が収穫され、軽量モデルが利用される。
提案手法では,コーディネートアテンションレイヤを備えたカスタムYOLOv7モデルや,Tiny YOLOv7モデルなど,複数のモデルアーキテクチャを採用している。
論文 参考訳(メタデータ) (2024-10-10T22:55:12Z) - Research on target detection method of distracted driving behavior based on improved YOLOv8 [6.405098280736171]
本研究では,BOTNetモジュール,GAMアテンション機構,EIoU損失関数を統合することで,従来のYOLOv8モデルに基づく改良されたYOLOv8検出手法を提案する。
実験の結果, 精度は99.4%であり, 検出速度, 精度ともに良好であった。
論文 参考訳(メタデータ) (2024-07-02T00:43:41Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - AutoOD: Automated Outlier Detection via Curiosity-guided Search and
Self-imitation Learning [72.99415402575886]
外乱検出は重要なデータマイニングの課題であり、多くの実用的応用がある。
本稿では,最適なニューラルネットワークモデルを探すことを目的とした自動外乱検出フレームワークであるAutoODを提案する。
さまざまな実世界のベンチマークデータセットに対する実験結果から、AutoODが特定したディープモデルが最高のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-06-19T18:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。