論文の概要: Real-Time Helmet Violation Detection in AI City Challenge 2023 with
Genetic Algorithm-Enhanced YOLOv5
- arxiv url: http://arxiv.org/abs/2304.09248v2
- Date: Mon, 20 Nov 2023 19:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 05:28:46.220029
- Title: Real-Time Helmet Violation Detection in AI City Challenge 2023 with
Genetic Algorithm-Enhanced YOLOv5
- Title(参考訳): 遺伝的アルゴリズム強化YOLOv5を用いたAIシティチャレンジ2023におけるリアルタイムヘルメット振動検出
- Authors: Elham Soltanikazemi, Ashwin Dhakal, Bijaya Kumar Hatuwal, Imad Eddine
Toubal, Armstrong Aboah, Kannappan Palaniappan
- Abstract要約: 本研究は,ヘルメット規制に違反する問題に対処する手段として,リアルタイム監視システムに焦点を当てている。
リアルタイムのヘルメット違反検出の試みは、リアルタイムに作動する能力の制限によって妨げられている。
本稿では,YOLOv5単段物体検出モデルを用いた新しいリアルタイムヘルメット違反検出システムを提案する。
- 参考スコア(独自算出の注目度): 6.081363026350582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research focuses on real-time surveillance systems as a means for
tackling the issue of non-compliance with helmet regulations, a practice that
considerably amplifies the risk for motorcycle drivers or riders. Despite the
well-established advantages of helmet usage, achieving widespread compliance
remains challenging due to diverse contributing factors. To effectively address
this concern, real-time monitoring and enforcement of helmet laws have been
proposed as a plausible solution. However, previous attempts at real-time
helmet violation detection have been hindered by their limited ability to
operate in real-time. To overcome this limitation, the current paper introduces
a novel real-time helmet violation detection system that utilizes the YOLOv5
single-stage object detection model. This model is trained on the 2023 NVIDIA
AI City Challenge 2023 Track 5 dataset. The optimal hyperparameters for
training the model are determined using genetic algorithms. Additionally, data
augmentation and various sampling techniques are implemented to enhance the
model's performance. The efficacy of the models is evaluated using precision,
recall, and mean Average Precision (mAP) metrics. The results demonstrate
impressive precision, recall, and mAP scores of 0.848, 0.599, and 0.641,
respectively for the training data. Furthermore, the model achieves notable mAP
score of 0.6667 for the test datasets, leading to a commendable 4th place rank
in the public leaderboard. This innovative approach represents a notable
breakthrough in the field and holds immense potential to substantially enhance
motorcycle safety. By enabling real-time monitoring and enforcement
capabilities, this system has the capacity to contribute towards increased
compliance with helmet laws, thereby effectively reducing the risks faced by
motorcycle riders and passengers.
- Abstract(参考訳): 本研究は,オートバイの運転者や乗務員のリスクを著しく増大させるヘルメット規制に違反する問題に対処する手段として,リアルタイム監視システムに焦点を当てている。
ヘルメットの使用が確立された利点にもかかわらず、幅広いコンプライアンスの実現は様々な要因により依然として困難である。
この問題を効果的に解決するために、ヘルメット法をリアルタイムに監視し、施行する手法が提案されている。
しかし、リアルタイムヘルメット違反検出の試みは、そのリアルタイム運用能力の制限によって妨げられている。
この制限を克服するために, YOLOv5単段物体検出モデルを用いた新しいリアルタイムヘルメット違反検出システムを提案する。
このモデルは2023 nvidia ai city challenge 2023 track 5データセットでトレーニングされている。
モデルのトレーニングに最適なハイパーパラメータは、遺伝的アルゴリズムを用いて決定される。
さらに、モデルの性能を高めるために、データ拡張と様々なサンプリング技術を実装した。
モデルの有効性は、精度、リコール、平均平均精度(mAP)測定値を用いて評価される。
その結果,トレーニングデータに対してそれぞれ0.848,0.599,0.641の精度,リコール,mAPスコアが得られた。
さらに、このモデルはテストデータセットの注目すべきmAPスコア0.6667を達成し、公開のリーダーボードで4位にランクインした。
この革新的なアプローチはこの分野における画期的なブレークスルーであり、オートバイの安全性を大幅に向上させる大きな可能性を秘めている。
リアルタイムの監視と実施を可能にすることで、このシステムはヘルメット法に準拠し、オートバイのライダーや乗客が直面するリスクを効果的に軽減することができる。
関連論文リスト
- Evaluating Vision-Language Models for Zero-Shot Detection, Classification, and Association of Motorcycles, Passengers, and Helmets [0.0]
本研究では,映像データを用いたオートバイ利用者のヘルメット着用状況の検出と分類において,高度な視覚言語基盤モデルOWLv2の有効性について検討した。
我々は、OWLv2とCNNモデルを統合して、検出および分類タスクにカスケードモデルアプローチを採用する。
結果は、不完全で偏りのあるトレーニングデータセットから生じる課題に対処するためのゼロショット学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-05T05:30:36Z) - Safety-Driven Deep Reinforcement Learning Framework for Cobots: A Sim2Real Approach [1.0488553716155147]
本研究では,深部強化学習(DRL)におけるロボットシミュレーションに安全性制約を取り入れた新しい手法を提案する。
このフレームワークは、速度制約のような安全要件の特定の部分をDRLモデルに直接統合する。
提案手法は,テストシナリオの平均成功率を16.5%向上させる。
論文 参考訳(メタデータ) (2024-07-02T12:56:17Z) - The RoboDrive Challenge: Drive Anytime Anywhere in Any Condition [136.32656319458158]
2024年のRoboDrive Challengeは、駆動認識技術の発展を促進するために作られた。
今年の挑戦は5つの異なるトラックで構成され、11カ国の93の機関から140の登録チームが集まった。
競争は15の最高パフォーマンスのソリューションで頂点に達した。
論文 参考訳(メタデータ) (2024-05-14T17:59:57Z) - Better YOLO with Attention-Augmented Network and Enhanced Generalization Performance for Safety Helmet Detection [16.09131958448249]
本稿では,GhostNetv2に基づく軽量な特徴抽出ネットワークのバックボーンを組み込むことにより,新しいアプローチを提案する。
安全クリティカルな環境では、安全ヘルメットの正確な検出と速度は、作業上の危険を防止し、安全プロトコルの遵守を確保する上で重要な役割を担っている。
論文 参考訳(メタデータ) (2024-05-04T07:13:47Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Real-Time Helmet Violation Detection Using YOLOv5 and Ensemble Learning [4.397520291340696]
本稿では,バイクの乗客や乗客をリアルタイムに検出する YOLOv5 Deep Learning (DL) モデルの開発と評価について述べる。
私たちは、20秒毎に10fpsで記録された100のビデオでモデルをトレーニングしました。
提案されたモデルは100の試験ビデオでテストされ、mAPスコアは0.5267で、AIシティトラック5の公開リーダーボードで11位にランクインした。
論文 参考訳(メタデータ) (2023-04-14T14:15:56Z) - Real-time Multi-Class Helmet Violation Detection Using Few-Shot Data
Sampling Technique and YOLOv8 [11.116729994007686]
本研究では,頑健なリアルタイムヘルメット違反検出システムを提案する。
提案手法は,2023年のAI City Challenge, Track 5において,mAPスコア0.5861で7位となった。
論文 参考訳(メタデータ) (2023-04-13T21:13:55Z) - Imitation Is Not Enough: Robustifying Imitation with Reinforcement
Learning for Challenging Driving Scenarios [147.16925581385576]
シミュレーション学習と強化学習を組み合わせることで,運転方針の安全性と信頼性が大幅に向上することを示す。
都会の運転データ100万マイル以上でポリシーを訓練し、異なるレベルの衝突確率でグループ化されたテストシナリオにおける有効性を測定する。
論文 参考訳(メタデータ) (2022-12-21T23:59:33Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Can Autonomous Vehicles Identify, Recover From, and Adapt to
Distribution Shifts? [104.04999499189402]
トレーニング外の配布(OOD)シナリオは、デプロイ時にエージェントを学ぶ上で一般的な課題である。
インプロバスト模倣計画(RIP)と呼ばれる不確実性を考慮した計画手法を提案する。
提案手法は,OODシーンにおける過信および破滅的な外挿を低減し,分布変化を検知し,回復することができる。
分散シフトを伴うタスク群に対する駆動エージェントのロバスト性を評価するために,自動走行車ノベルシーンベンチマークであるtexttCARNOVEL を導入する。
論文 参考訳(メタデータ) (2020-06-26T11:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。