論文の概要: Vision Transformers and YoloV5 based Driver Drowsiness Detection
Framework
- arxiv url: http://arxiv.org/abs/2209.01401v1
- Date: Sat, 3 Sep 2022 11:37:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 13:57:44.130200
- Title: Vision Transformers and YoloV5 based Driver Drowsiness Detection
Framework
- Title(参考訳): Vision TransformersとYoloV5ベースのドライバDrowsiness Detection Framework
- Authors: Ghanta Sai Krishna, Kundrapu Supriya, Jai Vardhan and Mallikharjuna
Rao K
- Abstract要約: 本稿では,視覚変換器とヨーロV5アーキテクチャをベースとした,ドライバの眠気認識のための新しいフレームワークを提案する。
関心領域抽出を目的とした顔抽出のためのヨロV5事前学習アーキテクチャを提案する。
さらなる評価のために、提案されたフレームワークは、様々な光環境における39人の参加者のカスタムデータセットでテストされ、95.5%の精度を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human drivers have distinct driving techniques, knowledge, and sentiments due
to unique driving traits. Driver drowsiness has been a serious issue
endangering road safety; therefore, it is essential to design an effective
drowsiness detection algorithm to bypass road accidents. Miscellaneous research
efforts have been approached the problem of detecting anomalous human driver
behaviour to examine the frontal face of the driver and automobile dynamics via
computer vision techniques. Still, the conventional methods cannot capture
complicated driver behaviour features. However, with the origin of deep
learning architectures, a substantial amount of research has also been executed
to analyze and recognize driver's drowsiness using neural network algorithms.
This paper introduces a novel framework based on vision transformers and YoloV5
architectures for driver drowsiness recognition. A custom YoloV5 pre-trained
architecture is proposed for face extraction with the aim of extracting Region
of Interest (ROI). Owing to the limitations of previous architectures, this
paper introduces vision transformers for binary image classification which is
trained and validated on a public dataset UTA-RLDD. The model had achieved
96.2\% and 97.4\% as it's training and validation accuracies respectively. For
the further evaluation, proposed framework is tested on a custom dataset of 39
participants in various light circumstances and achieved 95.5\% accuracy. The
conducted experimentations revealed the significant potential of our framework
for practical applications in smart transportation systems.
- Abstract(参考訳): 人間のドライバーは、独特の運転特性によって異なる運転技術、知識、感情を持っている。
運転者の眠気は道路の安全を脅かす深刻な問題であり、道路事故をバイパスする効果的な眠気検出アルゴリズムを設計することが不可欠である。
コンピュータビジョン技術を用いて、運転者の正面面と自動車力学の異常な人間の運転行動を検出する問題に対して、様々な研究がなされている。
しかし、従来の手法では複雑な運転行動の特徴を捉えることはできない。
しかし、ディープラーニングアーキテクチャの起源とともに、ニューラルネットワークアルゴリズムを用いてドライバーの眠気の分析と認識のために、かなりの量の研究が行われている。
本稿では,ドライバの眠気認識のための視覚トランスフォーマーとyolov5アーキテクチャに基づく新しい枠組みを提案する。
関心領域抽出(ROI)を目的として,顔抽出のためのヨロV5事前訓練アーキテクチャを提案する。
本稿では,従来のアーキテクチャの限界から,パブリックデータセット UTA-RLDD でトレーニングし,検証したバイナリ画像分類のための視覚変換器を提案する。
このモデルはトレーニングと検証の精度で96.2\%と97.4\%を達成した。
さらなる評価のために、様々な光環境において39人の参加者によるカスタムデータセット上で提案フレームワークをテストし、95.5\%の精度を達成した。
実験により,スマートトランスポートシステムにおける本フレームワークの実用化の可能性を明らかにした。
関連論文リスト
- VigilEye -- Artificial Intelligence-based Real-time Driver Drowsiness Detection [0.5549794481031468]
本研究では,深層学習技術とOpenCVフレームワークを組み合わせた新しいドライバの眠気検知システムを提案する。
このシステムは、運転者の顔から抽出された顔のランドマークを、眠気パターンを認識するために訓練された畳み込みニューラルネットワークに入力する。
提案システムは,運転者の疲労による事故を防止するため,タイムリーな警報を提供することで,道路安全を高めることができる。
論文 参考訳(メタデータ) (2024-06-21T20:53:49Z) - Enhancing Road Safety: Real-Time Detection of Driver Distraction through Convolutional Neural Networks [0.0]
本研究は,運転者の気晴らしをリアルタイムに検出する上で,最も効率的なモデルを明らかにすることを目的とする。
最終的な目的は、この発見を車両の安全システムに組み込むことであり、不注意によって引き起こされる事故を防ぐ能力を大幅に向上させることである。
論文 参考訳(メタデータ) (2024-05-28T03:34:55Z) - Improving automatic detection of driver fatigue and distraction using
machine learning [0.0]
運転者の疲労と注意をそらした運転は交通事故の重要な要因である。
本稿では,視覚に基づくアプローチと機械学習に基づくアプローチを用いて,疲労と注意をそらした運転行動の同時検出手法を提案する。
論文 参考訳(メタデータ) (2024-01-04T06:33:46Z) - DRUformer: Enhancing the driving scene Important object detection with
driving relationship self-understanding [50.81809690183755]
交通事故はしばしば致命傷を負い、2023年まで5000万人以上の死者を出した。
従来の研究は、主に個々の参加者の重要性を評価し、それらを独立した存在として扱うものであった。
本稿では、重要な物体検出タスクを強化するために、運転シーン関連自己理解変換器(DRUformer)を紹介する。
論文 参考訳(メタデータ) (2023-11-11T07:26:47Z) - Smart City Transportation: Deep Learning Ensemble Approach for Traffic
Accident Detection [0.0]
本稿では,スマートシティ交通監視システムにおける事故検出に適した軽量ソリューションであるI3D-CONVLSTM2Dモデルアーキテクチャを提案する。
I3D-CONVLSTM2D RGB + Optical-Flow (Trainable) モデルでは, 平均精度が87%, 平均精度が87%であった。
我々の研究は、スマート都市インフラ内のエッジIoTデバイスへのリアルタイム統合を前提とした、高度な視覚ベースの事故検出システムへの道筋を照らしている。
論文 参考訳(メタデータ) (2023-10-16T03:47:08Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [50.936478241688114]
非客観的運転経験のモデル化は困難であり,既存手法では運転経験蓄積手順を模擬する機構が欠如している。
本稿では,運転経験蓄積手順をモデル化するFeedBack Loop Network (FBLNet)を提案する。
提案モデルでは,既存の手法に対して強い優位性を示し,2つのドライバー注意ベンチマークデータセットの性能向上を実現している。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Improving Robustness of Learning-based Autonomous Steering Using
Adversarial Images [58.287120077778205]
自動運転用画像入力における学習アルゴリズムw.r.tの堅牢性を解析するためのフレームワークについて紹介する。
感度分析の結果を用いて, 「操縦への学習」 タスクの総合的性能を向上させるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-26T02:08:07Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z) - Improved YOLOv3 Object Classification in Intelligent Transportation
System [29.002873450422083]
高速道路における車両・運転者・人の検出・分類を実現するために, YOLOv3に基づくアルゴリズムを提案する。
モデルは優れた性能を持ち、道路遮断、異なる姿勢、極端な照明に頑丈である。
論文 参考訳(メタデータ) (2020-04-08T11:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。