論文の概要: Performance Evaluation of Real-Time Object Detection for Electric Scooters
- arxiv url: http://arxiv.org/abs/2405.03039v1
- Date: Sun, 5 May 2024 20:00:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 15:24:13.339110
- Title: Performance Evaluation of Real-Time Object Detection for Electric Scooters
- Title(参考訳): 電動スクータの実時間物体検出の性能評価
- Authors: Dong Chen, Arman Hosseini, Arik Smith, Amir Farzin Nikkhah, Arsalan Heydarian, Omid Shoghli, Bradford Campbell,
- Abstract要約: 電動スクーター(電動スクーター)は都市部の交通手段として急速に普及しているが、重大な安全上の課題を生じさせている。
本稿では,e-スクータ用に設計された最先端物体検出器の有効性と効率について検討する。
mAP@0.5で測定された検出精度は27.4%(YOLOv7-E6E)から86.8%(YOLOv5s)である。
- 参考スコア(独自算出の注目度): 9.218359701264797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Electric scooters (e-scooters) have rapidly emerged as a popular mode of transportation in urban areas, yet they pose significant safety challenges. In the United States, the rise of e-scooters has been marked by a concerning increase in related injuries and fatalities. Recently, while deep-learning object detection holds paramount significance in autonomous vehicles to avoid potential collisions, its application in the context of e-scooters remains relatively unexplored. This paper addresses this gap by assessing the effectiveness and efficiency of cutting-edge object detectors designed for e-scooters. To achieve this, the first comprehensive benchmark involving 22 state-of-the-art YOLO object detectors, including five versions (YOLOv3, YOLOv5, YOLOv6, YOLOv7, and YOLOv8), has been established for real-time traffic object detection using a self-collected dataset featuring e-scooters. The detection accuracy, measured in terms of mAP@0.5, ranges from 27.4% (YOLOv7-E6E) to 86.8% (YOLOv5s). All YOLO models, particularly YOLOv3-tiny, have displayed promising potential for real-time object detection in the context of e-scooters. Both the traffic scene dataset (https://zenodo.org/records/10578641) and software program codes (https://github.com/DongChen06/ScooterDet) for model benchmarking in this study are publicly available, which will not only improve e-scooter safety with advanced object detection but also lay the groundwork for tailored solutions, promising a safer and more sustainable urban micromobility landscape.
- Abstract(参考訳): 電動スクーター(電動スクーター)は都市部の交通手段として急速に普及しているが、重大な安全上の課題を生じさせている。
米国では、eスクーターの上昇は、関連する負傷者や死亡者の増加に関連している。
近年、衝突を避けるために、ディープラーニング物体検出は自動運転車において最も重要視されているが、eスクータの文脈での応用はいまだに未解明である。
本稿では,e-スクータ用に設計された最先端物体検出器の有効性と効率を評価することで,このギャップを解消する。
これを達成するために、22個の最先端のYOLOオブジェクト検出器(YOLOv3, YOLOv5, YOLOv6, YOLOv7, YOLOv8)を含む最初の総合的なベンチマークが、E-Scooterを特徴とする自己収集データセットを使用してリアルタイムのトラフィックオブジェクト検出のために確立された。
mAP@0.5で測定された検出精度は27.4%(YOLOv7-E6E)から86.8%(YOLOv5s)である。
すべてのYOLOモデル、特にYOLOv3-tinyは、E-Scooterのコンテキストにおいて、リアルタイムオブジェクト検出の有望な可能性を示している。
この研究におけるモデルベンチマークのためのトラフィックシーンデータセット (https://zenodo.org/records/10578641) とソフトウェアプログラムコード (https://github.com/DongChen06/ScooterDet) の両方が公開されている。
関連論文リスト
- YOLO-Vehicle-Pro: A Cloud-Edge Collaborative Framework for Object Detection in Autonomous Driving under Adverse Weather Conditions [8.820126303110545]
本稿では, YOLO-VehicleとYOLO-Vehicle-Proの2つの革新的なディープラーニングモデルを提案する。
YOLO-Vehicleは、自動運転シナリオに特化したオブジェクト検出モデルである。
YOLO-Vehicle-Proはこの基盤の上に構築されており、改良されたイメージデハージングアルゴリズムを導入している。
論文 参考訳(メタデータ) (2024-10-23T10:07:13Z) - YOLO-PPA based Efficient Traffic Sign Detection for Cruise Control in Autonomous Driving [10.103731437332693]
自律運転システムにおいて,交通標識を効率的にかつ正確に検出することが重要である。
既存のオブジェクト検出アルゴリズムでは、これらの小さなスケールの兆候をほとんど検出できない。
本稿では, YOLO PPAに基づく交通標識検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-05T07:49:21Z) - Comparing YOLOv5 Variants for Vehicle Detection: A Performance Analysis [0.0]
本研究は, YOLOv5n6s, YOLOv5s6s, YOLOv5m6s, YOLOv5l6s, YOLOv5x6sの5変種の比較分析を行った。
YOLOv5n6は精度とリコールのバランスが強いことを示した。
論文 参考訳(メタデータ) (2024-08-22T17:06:29Z) - Target Detection of Safety Protective Gear Using the Improved YOLOv5 [6.517811916515857]
本稿では, 背骨の畳み込み層にECAを組み込むことにより, 安全対策検出を向上する革新的モデルであるYOLO-EAを提案する。
YOLO-EAの有効性は、実際の鉄道建設現場の監視映像から得られたデータセットを用いて実証的に実証された。
論文 参考訳(メタデータ) (2024-08-12T07:33:11Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Investigating YOLO Models Towards Outdoor Obstacle Detection For
Visually Impaired People [3.4628430044380973]
7種類のYOLOオブジェクト検出モデルが実装された。
YOLOv8は最高のモデルであることが判明し、その精度は80ドルに達し、よく知られたObstacleデータセットでは68.2%だった。
YOLO-NASは障害物検出作業に最適であることがわかった。
論文 参考訳(メタデータ) (2023-12-10T13:16:22Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。