論文の概要: Keep Your AI-es on the Road: Tackling Distracted Driver Detection with
Convolutional Neural Networks and Targeted Data Augmentation
- arxiv url: http://arxiv.org/abs/2006.10955v2
- Date: Wed, 24 Jun 2020 01:05:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 04:32:05.402745
- Title: Keep Your AI-es on the Road: Tackling Distracted Driver Detection with
Convolutional Neural Networks and Targeted Data Augmentation
- Title(参考訳): ai-esを路上に残す:畳み込みニューラルネットワークとターゲットデータ拡張によるドライバーの注意をそらす
- Authors: Nikka Mofid, Jasmine Bayrooti, Shreya Ravi
- Abstract要約: 引き離された運転は、世界有数の自動車事故や死亡の原因の1つとなっている。
本研究では,運転者の不注意を検知し,識別するために,頑健な多クラス分類器を構築することを目的とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: According to the World Health Organization, distracted driving is one of the
leading cause of motor accidents and deaths in the world. In our study, we
tackle the problem of distracted driving by aiming to build a robust
multi-class classifier to detect and identify different forms of driver
inattention using the State Farm Distracted Driving Dataset. We utilize
combinations of pretrained image classification models, classical data
augmentation, OpenCV based image preprocessing and skin segmentation
augmentation approaches. Our best performing model combines several
augmentation techniques, including skin segmentation, facial blurring, and
classical augmentation techniques. This model achieves an approximately 15%
increase in F1 score over the baseline, thus showing the promise in these
techniques in enhancing the power of neural networks for the task of distracted
driver detection.
- Abstract(参考訳): 世界保健機関(WHO)によると、不注意運転は世界でも自動車事故や死亡の原因となっている。
本研究では,ステートファーム・ディトラクション・ドライビング・データセットを用いて,運転意図の異なる形態を検知・識別する,堅牢な多クラス分類器の構築を目指して,注意をそらす運転の問題に取り組む。
本研究では,事前学習された画像分類モデル,古典的データ拡張,opencvに基づく画像前処理,スキンセグメンテーション強化手法の組み合わせを用いた。
私たちの最高のパフォーマンスモデルは、皮膚のセグメンテーション、顔のぼかし、古典的な拡張技術など、いくつかの拡張技術を組み合わせています。
このモデルでは、ベースライン上でF1スコアが約15%増加し、運転者検出を邪魔するタスクに対するニューラルネットワークのパワー向上において、これらの技術が期待できることを示す。
関連論文リスト
- Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - RainSD: Rain Style Diversification Module for Image Synthesis
Enhancement using Feature-Level Style Distribution [5.500457283114346]
本稿では,実際の道路データセットBDD100Kから発生するセンサブロックを用いた道路合成データセットを提案する。
このデータセットを用いて、自律運転のための多様なマルチタスクネットワークの劣化を評価し、分析した。
深層ニューラルネットワークを用いた自動運転車の認識システムの性能劣化傾向を深く分析した。
論文 参考訳(メタデータ) (2023-12-31T11:30:42Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - A Novel Driver Distraction Behavior Detection Method Based on
Self-supervised Learning with Masked Image Modeling [5.1680226874942985]
ドライバーの注意散らしは、毎年かなりの数の交通事故を引き起こし、経済的な損失と損失をもたらす。
ドライバの障害検出は、主に従来の畳み込みニューラルネットワーク(CNN)と教師あり学習法に依存している。
本稿では,運転者の気晴らし行動検出のためのマスク付き画像モデリングに基づく自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T10:53:32Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Collision Detection: An Improved Deep Learning Approach Using SENet and
ResNext [6.736699393205048]
本稿では,SENetブロックを用いたResNextアーキテクチャを用いたディープラーニングモデルを提案する。
提案モデルでは, GTACrash 合成データの有意に少ない比率で, ROC-AUC 0.91 を達成する既存のベースラインモデルよりも優れていた。
論文 参考訳(メタデータ) (2022-01-13T02:10:14Z) - Driving Style Representation in Convolutional Recurrent Neural Network
Model of Driver Identification [8.007800530105191]
運転スタイルのための高忠実度表現を構築するために,D-CRNNと呼ばれるディープ・ニューラル・ネットワークアーキテクチャを提案する。
CNNを用いて、軌道からの運転行動の意味的パターンをキャプチャする。
次に、RNNを用いて駆動スタイルをエンコードするこれらのセマンティックパターン間の時間的依存関係を見つけ出す。
論文 参考訳(メタデータ) (2021-02-11T04:33:43Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。