論文の概要: Real-time Multi-Class Helmet Violation Detection Using Few-Shot Data
Sampling Technique and YOLOv8
- arxiv url: http://arxiv.org/abs/2304.08256v1
- Date: Thu, 13 Apr 2023 21:13:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 15:19:40.795865
- Title: Real-time Multi-Class Helmet Violation Detection Using Few-Shot Data
Sampling Technique and YOLOv8
- Title(参考訳): マイズショットデータサンプリング技術とyolov8を用いたリアルタイムマルチクラスヘルメット違反検出
- Authors: Armstrong Aboah, Bin Wang, Ulas Bagci, Yaw Adu-Gyamfi
- Abstract要約: 本研究では,頑健なリアルタイムヘルメット違反検出システムを提案する。
提案手法は,2023年のAI City Challenge, Track 5において,mAPスコア0.5861で7位となった。
- 参考スコア(独自算出の注目度): 11.116729994007686
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Traffic safety is a major global concern. Helmet usage is a key factor in
preventing head injuries and fatalities caused by motorcycle accidents.
However, helmet usage violations continue to be a significant problem. To
identify such violations, automatic helmet detection systems have been proposed
and implemented using computer vision techniques. Real-time implementation of
such systems is crucial for traffic surveillance and enforcement, however, most
of these systems are not real-time. This study proposes a robust real-time
helmet violation detection system. The proposed system utilizes a unique data
processing strategy, referred to as few-shot data sampling, to develop a robust
model with fewer annotations, and a single-stage object detection model, YOLOv8
(You Only Look Once Version 8), for detecting helmet violations in real-time
from video frames. Our proposed method won 7th place in the 2023 AI City
Challenge, Track 5, with an mAP score of 0.5861 on experimental validation
data. The experimental results demonstrate the effectiveness, efficiency, and
robustness of the proposed system.
- Abstract(参考訳): 交通安全は世界の大きな関心事である。
ヘルメットの使用は、オートバイ事故による頭部の怪我や死亡を防ぐ重要な要因である。
しかし、ヘルメットの使用違反は引き続き重大な問題である。
このような違反を識別するために,コンピュータビジョン技術を用いて自動ヘルメット検出システムを提案し,実装した。
このようなシステムのリアルタイム実装は、交通監視や執行には不可欠であるが、ほとんどのシステムはリアルタイムではない。
本研究では,ロバストなリアルタイムヘルメット違反検出システムを提案する。
提案システムでは,少ないアノテーションでロバストなモデルを開発するために,マイナショットデータサンプリングと呼ばれるユニークなデータ処理戦略と,ビデオフレームからヘルメット違反をリアルタイムに検出する単一ステージオブジェクト検出モデルであるyolov8 (you only look once version 8) を使用している。
提案手法は2023年のai city challenge, track 5で7位となり,実験的検証データでは0.5861のマップスコアを得た。
実験結果は,提案システムの有効性,効率,堅牢性を示すものである。
関連論文リスト
- Evaluating Vision-Language Models for Zero-Shot Detection, Classification, and Association of Motorcycles, Passengers, and Helmets [0.0]
本研究では,映像データを用いたオートバイ利用者のヘルメット着用状況の検出と分類において,高度な視覚言語基盤モデルOWLv2の有効性について検討した。
我々は、OWLv2とCNNモデルを統合して、検出および分類タスクにカスケードモデルアプローチを採用する。
結果は、不完全で偏りのあるトレーニングデータセットから生じる課題に対処するためのゼロショット学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-05T05:30:36Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Real-Time Helmet Violation Detection in AI City Challenge 2023 with
Genetic Algorithm-Enhanced YOLOv5 [6.081363026350582]
本研究は,ヘルメット規制に違反する問題に対処する手段として,リアルタイム監視システムに焦点を当てている。
リアルタイムのヘルメット違反検出の試みは、リアルタイムに作動する能力の制限によって妨げられている。
本稿では,YOLOv5単段物体検出モデルを用いた新しいリアルタイムヘルメット違反検出システムを提案する。
論文 参考訳(メタデータ) (2023-04-13T22:04:30Z) - TAD: A Large-Scale Benchmark for Traffic Accidents Detection from Video
Surveillance [2.1076255329439304]
既存の交通事故のデータセットは小規模で、監視カメラからではなく、オープンソースではない。
様々な次元による統合とアノテーションの後に,TADという大規模交通事故データセットが提案されている。
論文 参考訳(メタデータ) (2022-09-26T03:00:50Z) - Threat Detection In Self-Driving Vehicles Using Computer Vision [0.0]
ダッシュカムビデオを用いた自動運転車の脅威検出機構を提案する。
オブジェクトを識別するためのYOLO,高度な車線検出アルゴリズム,カメラからの距離を測定するマルチレグレッションモデルという,4つの主要なコンポーネントがある。
提案した脅威検出モデル(TDM)の最終的な精度は82.65%である。
論文 参考訳(メタデータ) (2022-09-06T12:01:07Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - Identification of Driver Phone Usage Violations via State-of-the-Art
Object Detection with Tracking [8.147652597876862]
道路沿いのカメラで人間の介入を必要とせずに運転者用電話機の使用状況を把握できる、カスタムトレーニングされた最先端物体検出器を提案する。
提案手法はウインドスクリーンのグラアに起因する問題にも対処し、これを改善するために必要なステップを紹介している。
論文 参考訳(メタデータ) (2021-09-05T16:37:03Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。