論文の概要: YOLO11-CR: a Lightweight Convolution-and-Attention Framework for Accurate Fatigue Driving Detection
- arxiv url: http://arxiv.org/abs/2508.13205v1
- Date: Sat, 16 Aug 2025 07:19:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.653095
- Title: YOLO11-CR: a Lightweight Convolution-and-Attention Framework for Accurate Fatigue Driving Detection
- Title(参考訳): YOLO11-CR:正確な疲労運転検出のための軽量コンボリューション・アンド・アテンションフレームワーク
- Authors: Zhebin Jin, Ligang Dong,
- Abstract要約: 本稿では,リアルタイム疲労モニタリングに適した軽量で効率的な物体検出モデルYOLO11-CRを提案する。
YOLO11-CR は Convolution-and-Attention Fusion Module (CAFM) と Rectangular Module (RCM) の2つの重要なモジュールを導入した。
DSMデータセットの実験では、YOLO11-CRは87.17%の精度、83.86%のリコール、88.09%のmAP@50、55.93%のmAP@50-95を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driver fatigue detection is of paramount importance for intelligent transportation systems due to its critical role in mitigating road traffic accidents. While physiological and vehicle dynamics-based methods offer accuracy, they are often intrusive, hardware-dependent, and lack robustness in real-world environments. Vision-based techniques provide a non-intrusive and scalable alternative, but still face challenges such as poor detection of small or occluded objects and limited multi-scale feature modeling. To address these issues, this paper proposes YOLO11-CR, a lightweight and efficient object detection model tailored for real-time fatigue detection. YOLO11-CR introduces two key modules: the Convolution-and-Attention Fusion Module (CAFM), which integrates local CNN features with global Transformer-based context to enhance feature expressiveness; and the Rectangular Calibration Module (RCM), which captures horizontal and vertical contextual information to improve spatial localization, particularly for profile faces and small objects like mobile phones. Experiments on the DSM dataset demonstrated that YOLO11-CR achieves a precision of 87.17%, recall of 83.86%, mAP@50 of 88.09%, and mAP@50-95 of 55.93%, outperforming baseline models significantly. Ablation studies further validate the effectiveness of the CAFM and RCM modules in improving both sensitivity and localization accuracy. These results demonstrate that YOLO11-CR offers a practical and high-performing solution for in-vehicle fatigue monitoring, with strong potential for real-world deployment and future enhancements involving temporal modeling, multi-modal data integration, and embedded optimization.
- Abstract(参考訳): 運転者の疲労検出は、道路交通事故の軽減に重要な役割を担っているため、インテリジェント交通システムにとって最重要事項である。
生理学的および車両力学に基づく手法は正確性を提供するが、それらはしばしば侵入的であり、ハードウェアに依存し、現実の環境では堅牢性に欠ける。
視覚ベースの技術は、非侵襲的でスケーラブルな代替手段を提供するが、小さなまたは隠蔽されたオブジェクトの検出が不十分なことや、限られたマルチスケールの機能モデリングといった課題に直面している。
本稿では, リアルタイム疲労検出に適した軽量で効率的な物体検出モデルであるYOLO11-CRを提案する。
YOLO11-CRは2つの主要なモジュールを導入している: Convolution-and-Attention Fusion Module (CAFM)はローカルCNN機能とグローバルトランスフォーマーベースのコンテキストを統合して特徴表現性を高める。
DSMデータセットの実験では、YOLO11-CRは87.17%の精度、83.86%のリコール、88.09%のmAP@50、55.93%のmAP@50-95を達成し、ベースラインモデルを大幅に上回った。
アブレーション研究はCAFMモジュールとRCMモジュールの感度および局在精度の改善効果をさらに検証した。
これらの結果から, YOLO11-CRは車内疲労モニタリングのための実用的で高性能なソリューションであり, 実世界展開の可能性が強く, 時間的モデリング, マルチモーダルデータ統合, 組込み最適化を含む今後の拡張が期待できる。
関連論文リスト
- YOLO-APD: Enhancing YOLOv8 for Robust Pedestrian Detection on Complex Road Geometries [0.0]
本稿では,この課題に特化してYOLOv8フレームワークを改良した新しいディープラーニングアーキテクチャであるYOLO-APDを紹介する。
YOLO-APDは最先端の精度を達成し、77.7% mAP@0.5:0.95、例外的な歩行者リコールは96%を超えた。
リアルタイム処理能力を100 FPSで維持し、精度と効率のバランスが優れていることを示す。
論文 参考訳(メタデータ) (2025-07-07T18:03:40Z) - World Model-Based Learning for Long-Term Age of Information Minimization in Vehicular Networks [53.98633183204453]
本稿では,車載ネットワークにおけるパケット完全性認識情報(CAoI)の年齢を最小化するために,新しい世界モデルに基づく学習フレームワークを提案する。
mmWave V2X環境の動的モデルを共同で学習し、リンクスケジューリングの方法を学ぶための軌跡を想像するために使用する世界モデルフレームワークを提案する。
特に、長期的な政策は環境相互作用の代わりに、異なる想像軌道で学習される。
論文 参考訳(メタデータ) (2025-05-03T06:23:18Z) - YOLO-LLTS: Real-Time Low-Light Traffic Sign Detection via Prior-Guided Enhancement and Multi-Branch Feature Interaction [45.79993863157494]
YOLO-LLTSは、低照度環境向けに設計されたエンドツーエンドのリアルタイム信号検出アルゴリズムである。
YOLO-LLTSは、HRFM-SOD(High-Resolution Feature Map for Small Object Detection)、MFIA(Multi-branch Feature Interaction Attention)、PGFE(Presideed-Guided Feature Enhancement Module)の3つの主要なコントリビューションを紹介している。
実験の結果、YOLO-LLTSは最新技術の性能を達成し、TT100K-nightでは2.7% mAP50:95と1.6% mAP50:95よりも優れていた。
論文 参考訳(メタデータ) (2025-03-18T04:28:05Z) - AutoML for Multi-Class Anomaly Compensation of Sensor Drift [44.63945828405864]
センサドリフトは、時間とともに機械学習モデルのパフォーマンスを低下させる。
標準クロスバリデーション法はドリフトの不適切な会計によって性能を過大評価する。
本稿では,(1)モデル検証のための新しいセンサドリフト補償学習パラダイム,(2)分類性能の向上とセンサドリフト補償のための自動機械学習(AutoML)技術を提案する。
論文 参考訳(メタデータ) (2025-02-26T14:34:53Z) - Fast-COS: A Fast One-Stage Object Detector Based on Reparameterized Attention Vision Transformer for Autonomous Driving [3.617580194719686]
本稿では、シーンを駆動するための新しい単一ステージオブジェクト検出フレームワークであるFast-COSを紹介する。
RAViTはImageNet-1Kデータセットで81.4%のTop-1精度を達成した。
主要なモデルの効率を上回り、最大75.9%のGPU推論速度とエッジデバイスでの1.38のスループットを提供する。
論文 参考訳(メタデータ) (2025-02-11T09:54:09Z) - Interpretable Dynamic Graph Neural Networks for Small Occluded Object Detection and Tracking [0.0]
本稿では,動的グラフニューラルネットワーク(DGNN)とYOLO11を統合し,制約に対処する新しいフレームワークであるDGNN-YOLOを紹介する。
標準のGNNとは異なり、DGNNはグラフ構造をリアルタイムで動的に更新する優れた能力のために選択される。
このフレームワークはグラフ表現を構築し、定期的に更新し、ノードとしてオブジェクトをキャプチャし、エッジとして相互作用する。
論文 参考訳(メタデータ) (2024-11-26T09:29:27Z) - A Computer Vision Enabled damage detection model with improved YOLOv5
based on Transformer Prediction Head [0.0]
現在の最先端ディープラーニング(DL)に基づく損傷検出モデルは、複雑でノイズの多い環境では優れた特徴抽出能力を欠いていることが多い。
DenseSPH-YOLOv5は、DenseNetブロックをバックボーンに統合したリアルタイムDLベースの高性能損傷検出モデルである。
DenseSPH-YOLOv5は平均平均精度(mAP)が85.25%、F1スコアが81.18%、精度(P)が89.51%である。
論文 参考訳(メタデータ) (2023-03-07T22:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。