論文の概要: A Computer Vision-Based Approach for Driver Distraction Recognition
using Deep Learning and Genetic Algorithm Based Ensemble
- arxiv url: http://arxiv.org/abs/2107.13355v1
- Date: Wed, 28 Jul 2021 13:39:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 14:09:34.960624
- Title: A Computer Vision-Based Approach for Driver Distraction Recognition
using Deep Learning and Genetic Algorithm Based Ensemble
- Title(参考訳): ディープラーニングと遺伝的アルゴリズムに基づくアンサンブルを用いたコンピュータビジョンに基づく運転者の注意散逸認識
- Authors: Ashlesha Kumar, Kuldip Singh Sangwan and Dhiraj
- Abstract要約: 携帯電話や他の無線機器が原因で 道路の安全が危うくなる
本研究の目的は,運転者の気晴らし分類問題の性能を向上させることにより,既存の運転姿勢認識技術を支援することである。
本稿では,AlexNet,VGG-16,EfficientNet B0,Vanilla CNN,Modified DenseNet,InceptionV3+BiLSTMという,6つの独立したディープニューラルネットワークの遺伝的アルゴリズムに基づくアンサンブルを用いたアプローチを提案する。
- 参考スコア(独自算出の注目度): 1.8907108368038217
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As the proportion of road accidents increases each year, driver distraction
continues to be an important risk component in road traffic injuries and
deaths. The distractions caused by the increasing use of mobile phones and
other wireless devices pose a potential risk to road safety. Our current study
aims to aid the already existing techniques in driver posture recognition by
improving the performance in the driver distraction classification problem. We
present an approach using a genetic algorithm-based ensemble of six independent
deep neural architectures, namely, AlexNet, VGG-16, EfficientNet B0, Vanilla
CNN, Modified DenseNet, and InceptionV3 + BiLSTM. We test it on two
comprehensive datasets, the AUC Distracted Driver Dataset, on which our
technique achieves an accuracy of 96.37%, surpassing the previously obtained
95.98%, and on the State Farm Driver Distraction Dataset, on which we attain an
accuracy of 99.75%. The 6-Model Ensemble gave an inference time of 0.024
seconds as measured on our machine with Ubuntu 20.04(64-bit) and GPU as GeForce
GTX 1080.
- Abstract(参考訳): 交通事故の割合が年々増加するにつれて、運転者の気晴らしは道路交通の損傷や死亡の重要な危険要素となっている。
携帯電話やその他の無線機器の使用の増加による混乱は、道路の安全を脅かす可能性がある。
本研究は,運転者の気晴らし分類問題の性能を向上させることにより,既存の運転姿勢認識技術を支援することを目的としている。
本稿では,AlexNet,VGG-16,EfficientNet B0,Vanilla CNN,Modified DenseNet,InceptionV3+BiLSTMという,6つの独立したディープニューラルネットワークの遺伝的アルゴリズムに基づくアンサンブルを用いたアプローチを提案する。
本手法は,これまで得られた95.98%を上回り,96.37%の精度を実現したauc型運転者データセットと,99.75%の精度を得るステートファーム型運転者注意散逸データセットの2つの総合データセットでテストを行った。
6モデルアンサンブルは、ubuntu 20.04(64ビット)とgeforce gtx 1080で測定した0.024秒の推論時間を与えた。
関連論文リスト
- Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - Improving automatic detection of driver fatigue and distraction using
machine learning [0.0]
運転者の疲労と注意をそらした運転は交通事故の重要な要因である。
本稿では,視覚に基づくアプローチと機械学習に基づくアプローチを用いて,疲労と注意をそらした運転行動の同時検出手法を提案する。
論文 参考訳(メタデータ) (2024-01-04T06:33:46Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Threat Detection In Self-Driving Vehicles Using Computer Vision [0.0]
ダッシュカムビデオを用いた自動運転車の脅威検出機構を提案する。
オブジェクトを識別するためのYOLO,高度な車線検出アルゴリズム,カメラからの距離を測定するマルチレグレッションモデルという,4つの主要なコンポーネントがある。
提案した脅威検出モデル(TDM)の最終的な精度は82.65%である。
論文 参考訳(メタデータ) (2022-09-06T12:01:07Z) - Vision Transformers and YoloV5 based Driver Drowsiness Detection
Framework [0.0]
本稿では,視覚変換器とヨーロV5アーキテクチャをベースとした,ドライバの眠気認識のための新しいフレームワークを提案する。
関心領域抽出を目的とした顔抽出のためのヨロV5事前学習アーキテクチャを提案する。
さらなる評価のために、提案されたフレームワークは、様々な光環境における39人の参加者のカスタムデータセットでテストされ、95.5%の精度を達成した。
論文 参考訳(メタデータ) (2022-09-03T11:37:41Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Improving Robustness of Learning-based Autonomous Steering Using
Adversarial Images [58.287120077778205]
自動運転用画像入力における学習アルゴリズムw.r.tの堅牢性を解析するためのフレームワークについて紹介する。
感度分析の結果を用いて, 「操縦への学習」 タスクの総合的性能を向上させるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-26T02:08:07Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Keep Your AI-es on the Road: Tackling Distracted Driver Detection with
Convolutional Neural Networks and Targeted Data Augmentation [0.0]
引き離された運転は、世界有数の自動車事故や死亡の原因の1つとなっている。
本研究では,運転者の不注意を検知し,識別するために,頑健な多クラス分類器を構築することを目的とする。
論文 参考訳(メタデータ) (2020-06-19T04:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。