論文の概要: Multi-Attention Fusion Drowsy Driving Detection Model
- arxiv url: http://arxiv.org/abs/2312.17052v1
- Date: Thu, 28 Dec 2023 14:53:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 15:49:41.775316
- Title: Multi-Attention Fusion Drowsy Driving Detection Model
- Title(参考訳): マルチアテンション核融合ドロージー駆動検出モデル
- Authors: Shulei QU, Zhenguo Gao, Xiaoxiao Wu, Yuanyuan Qiu
- Abstract要約: 我々は,Multi-Attention Fusion Drowsy Driving Detection Model (MAF)と呼ばれる新しいアプローチを導入する。
提案モデルでは96.8%の運転覚醒検出精度が得られた。
- 参考スコア(独自算出の注目度): 1.2043574473965317
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Drowsy driving represents a major contributor to traffic accidents, and the
implementation of driver drowsy driving detection systems has been proven to
significantly reduce the occurrence of such accidents. Despite the development
of numerous drowsy driving detection algorithms, many of them impose specific
prerequisites such as the availability of complete facial images, optimal
lighting conditions, and the use of RGB images. In our study, we introduce a
novel approach called the Multi-Attention Fusion Drowsy Driving Detection Model
(MAF). MAF is aimed at significantly enhancing classification performance,
especially in scenarios involving partial facial occlusion and low lighting
conditions. It accomplishes this by capitalizing on the local feature
extraction capabilities provided by multi-attention fusion, thereby enhancing
the algorithm's overall robustness. To enhance our dataset, we collected
real-world data that includes both occluded and unoccluded faces captured under
nighttime and daytime lighting conditions. We conducted a comprehensive series
of experiments using both publicly available datasets and our self-built data.
The results of these experiments demonstrate that our proposed model achieves
an impressive driver drowsiness detection accuracy of 96.8%.
- Abstract(参考訳): ドローシー運転は交通事故の主要な原因であり、運転者ドローシー運転検知システムの実装はそのような事故の発生を著しく減少させることが証明されている。
多くのドロシー駆動検出アルゴリズムの開発にもかかわらず、その多くが完全な顔画像、最適な照明条件、RGB画像の使用といった特定の前提条件を課している。
本研究では,Multi-Attention Fusion Drowsy Driving Detection Model (MAF)と呼ばれる新しい手法を提案する。
MAFは、特に部分的な顔の閉塞と低い照明条件を含むシナリオにおいて、分類性能を著しく向上することを目的としている。
マルチアテンション融合によって提供される局所的特徴抽出能力を利用することで、アルゴリズム全体のロバスト性を高める。
データセットを強化するために、夜間および昼間の照明条件下で撮影された、隠蔽顔と隠蔽顔の両方を含む実世界のデータを収集した。
公開データセットと自己構築データの両方を用いて総合的な実験を行った。
これらの実験の結果,提案モデルが運転者の眠気検出精度96.8%を達成した。
関連論文リスト
- Hard Cases Detection in Motion Prediction by Vision-Language Foundation Models [16.452638202694246]
本研究は、自動運転におけるハードケースの検出におけるビジョン・ランゲージ・ファンデーション・モデル(VLM)の可能性を探るものである。
設計したプロンプトで逐次画像フレームを供給し,課題のあるエージェントやシナリオを効果的に識別する,実現可能なパイプラインを提案する。
NuScenesデータセット上で、パイプラインを最先端の手法に組み込むことの有効性と可能性を示す。
論文 参考訳(メタデータ) (2024-05-31T16:35:41Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Radar Enlighten the Dark: Enhancing Low-Visibility Perception for
Automated Vehicles with Camera-Radar Fusion [8.946655323517094]
低視認性条件に対処するために,トランスフォーマーを用いた新しい3次元オブジェクト検出モデル"REDFormer"を提案する。
我々のモデルは、分類と検出精度で最先端(SOTA)モデルより優れている。
論文 参考訳(メタデータ) (2023-05-27T00:47:39Z) - An Outlier Exposure Approach to Improve Visual Anomaly Detection
Performance for Mobile Robots [76.36017224414523]
移動ロボットの視覚異常検出システム構築の問題点を考察する。
標準異常検出モデルは、非異常データのみからなる大規模なデータセットを用いて訓練される。
本研究では,これらのデータを利用してリアルNVP異常検出モデルの性能向上を図る。
論文 参考訳(メタデータ) (2022-09-20T15:18:13Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Does Thermal data make the detection systems more reliable? [1.2891210250935146]
マルチモーダル協調フレームワークに基づく包括的検知システムを提案する。
このフレームワークは、RGB(ビジュアルカメラから)と熱(赤外線カメラから)の両方のデータから学習する。
実験の結果,精度の向上は名目上はいるものの,難易度と難易度は高いことがわかった。
論文 参考訳(メタデータ) (2021-11-09T15:04:34Z) - Comparison of Object Detection Algorithms Using Video and Thermal Images
Collected from a UAS Platform: An Application of Drones in Traffic Management [2.9932638148627104]
本研究では、視覚カメラと赤外線カメラの両方のリアルタイム車両検出アルゴリズムについて検討する。
フロリダ州タンパの高速道路沿いのUASプラットフォームから、レッドグリーンブルー(RGB)のビデオと熱画像が収集された。
論文 参考訳(メタデータ) (2021-09-27T16:57:09Z) - DAE : Discriminatory Auto-Encoder for multivariate time-series anomaly
detection in air transportation [68.8204255655161]
識別オートエンコーダ(DAE)と呼ばれる新しい異常検出モデルを提案する。
通常のLSTMベースのオートエンコーダのベースラインを使用するが、いくつかのデコーダがあり、それぞれ特定の飛行フェーズのデータを取得する。
その結果,DAEは精度と検出速度の両方で良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-09-08T14:07:55Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Anomalous Motion Detection on Highway Using Deep Learning [14.617786106427834]
本稿では,新しい異常検出データセットであるハイウェイ交通異常(HTA)データセットを提案する。
我々は、最先端のディープラーニング異常検出モデルを評価し、これらの手法に新しいバリエーションを提案する。
論文 参考訳(メタデータ) (2020-06-15T05:40:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。