論文の概要: YOLO11-CR: a Lightweight Convolution-and-Attention Framework for Accurate Fatigue Driving Detection
- arxiv url: http://arxiv.org/abs/2508.13205v1
- Date: Sat, 16 Aug 2025 07:19:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.653095
- Title: YOLO11-CR: a Lightweight Convolution-and-Attention Framework for Accurate Fatigue Driving Detection
- Title(参考訳): YOLO11-CR:正確な疲労運転検出のための軽量コンボリューション・アンド・アテンションフレームワーク
- Authors: Zhebin Jin, Ligang Dong,
- Abstract要約: 本稿では,リアルタイム疲労モニタリングに適した軽量で効率的な物体検出モデルYOLO11-CRを提案する。
YOLO11-CR は Convolution-and-Attention Fusion Module (CAFM) と Rectangular Module (RCM) の2つの重要なモジュールを導入した。
DSMデータセットの実験では、YOLO11-CRは87.17%の精度、83.86%のリコール、88.09%のmAP@50、55.93%のmAP@50-95を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driver fatigue detection is of paramount importance for intelligent transportation systems due to its critical role in mitigating road traffic accidents. While physiological and vehicle dynamics-based methods offer accuracy, they are often intrusive, hardware-dependent, and lack robustness in real-world environments. Vision-based techniques provide a non-intrusive and scalable alternative, but still face challenges such as poor detection of small or occluded objects and limited multi-scale feature modeling. To address these issues, this paper proposes YOLO11-CR, a lightweight and efficient object detection model tailored for real-time fatigue detection. YOLO11-CR introduces two key modules: the Convolution-and-Attention Fusion Module (CAFM), which integrates local CNN features with global Transformer-based context to enhance feature expressiveness; and the Rectangular Calibration Module (RCM), which captures horizontal and vertical contextual information to improve spatial localization, particularly for profile faces and small objects like mobile phones. Experiments on the DSM dataset demonstrated that YOLO11-CR achieves a precision of 87.17%, recall of 83.86%, mAP@50 of 88.09%, and mAP@50-95 of 55.93%, outperforming baseline models significantly. Ablation studies further validate the effectiveness of the CAFM and RCM modules in improving both sensitivity and localization accuracy. These results demonstrate that YOLO11-CR offers a practical and high-performing solution for in-vehicle fatigue monitoring, with strong potential for real-world deployment and future enhancements involving temporal modeling, multi-modal data integration, and embedded optimization.
- Abstract(参考訳): 運転者の疲労検出は、道路交通事故の軽減に重要な役割を担っているため、インテリジェント交通システムにとって最重要事項である。
生理学的および車両力学に基づく手法は正確性を提供するが、それらはしばしば侵入的であり、ハードウェアに依存し、現実の環境では堅牢性に欠ける。
視覚ベースの技術は、非侵襲的でスケーラブルな代替手段を提供するが、小さなまたは隠蔽されたオブジェクトの検出が不十分なことや、限られたマルチスケールの機能モデリングといった課題に直面している。
本稿では, リアルタイム疲労検出に適した軽量で効率的な物体検出モデルであるYOLO11-CRを提案する。
YOLO11-CRは2つの主要なモジュールを導入している: Convolution-and-Attention Fusion Module (CAFM)はローカルCNN機能とグローバルトランスフォーマーベースのコンテキストを統合して特徴表現性を高める。
DSMデータセットの実験では、YOLO11-CRは87.17%の精度、83.86%のリコール、88.09%のmAP@50、55.93%のmAP@50-95を達成し、ベースラインモデルを大幅に上回った。
アブレーション研究はCAFMモジュールとRCMモジュールの感度および局在精度の改善効果をさらに検証した。
これらの結果から, YOLO11-CRは車内疲労モニタリングのための実用的で高性能なソリューションであり, 実世界展開の可能性が強く, 時間的モデリング, マルチモーダルデータ統合, 組込み最適化を含む今後の拡張が期待できる。
関連論文リスト
- RT-DETRv4: Painlessly Furthering Real-Time Object Detection with Vision Foundation Models [48.91205564876609]
軽量物体検出器の高効率化を目的とした,コスト効率・高適合性蒸留フレームワークを提案する。
当社のアプローチは、さまざまなDETRベースのモデルに対して、目立って一貫したパフォーマンス向上を実現しています。
我々の新しいモデルファミリーRT-DETRv4はCOCOの最先端結果を達成し、APスコアは49.7/53.5/55.4/57.0で、対応する速度は273/169/124/78 FPSである。
論文 参考訳(メタデータ) (2025-10-29T08:13:17Z) - Investigating Traffic Accident Detection Using Multimodal Large Language Models [3.4123736336071864]
本研究では,交通事故の検出と記述を行うマルチモーダル大規模言語モデル(MLLM)のゼロショット機能について検討する。
その結果、PixtralはF1スコア71%、リコール83%のトップパフォーマーとなった。
これらの結果は、MLLMと高度な視覚分析技術の統合の可能性を示している。
論文 参考訳(メタデータ) (2025-09-23T14:47:33Z) - YOLO-APD: Enhancing YOLOv8 for Robust Pedestrian Detection on Complex Road Geometries [0.0]
本稿では,この課題に特化してYOLOv8フレームワークを改良した新しいディープラーニングアーキテクチャであるYOLO-APDを紹介する。
YOLO-APDは最先端の精度を達成し、77.7% mAP@0.5:0.95、例外的な歩行者リコールは96%を超えた。
リアルタイム処理能力を100 FPSで維持し、精度と効率のバランスが優れていることを示す。
論文 参考訳(メタデータ) (2025-07-07T18:03:40Z) - World Model-Based Learning for Long-Term Age of Information Minimization in Vehicular Networks [53.98633183204453]
本稿では,車載ネットワークにおけるパケット完全性認識情報(CAoI)の年齢を最小化するために,新しい世界モデルに基づく学習フレームワークを提案する。
mmWave V2X環境の動的モデルを共同で学習し、リンクスケジューリングの方法を学ぶための軌跡を想像するために使用する世界モデルフレームワークを提案する。
特に、長期的な政策は環境相互作用の代わりに、異なる想像軌道で学習される。
論文 参考訳(メタデータ) (2025-05-03T06:23:18Z) - VAE-based Feature Disentanglement for Data Augmentation and Compression in Generalized GNSS Interference Classification [42.14439854721613]
干渉の正確な分類を可能にする重要な潜伏特徴を抽出するために, アンタングル化のための変分オートエンコーダ (VAE) を提案する。
提案するVAEは512から8,192の範囲のデータ圧縮率を実現し,99.92%の精度を実現している。
論文 参考訳(メタデータ) (2025-04-14T13:38:00Z) - YOLO-LLTS: Real-Time Low-Light Traffic Sign Detection via Prior-Guided Enhancement and Multi-Branch Feature Interaction [45.79993863157494]
YOLO-LLTSは、低照度環境向けに設計されたエンドツーエンドのリアルタイム信号検出アルゴリズムである。
YOLO-LLTSは、HRFM-SOD(High-Resolution Feature Map for Small Object Detection)、MFIA(Multi-branch Feature Interaction Attention)、PGFE(Presideed-Guided Feature Enhancement Module)の3つの主要なコントリビューションを紹介している。
実験の結果、YOLO-LLTSは最新技術の性能を達成し、TT100K-nightでは2.7% mAP50:95と1.6% mAP50:95よりも優れていた。
論文 参考訳(メタデータ) (2025-03-18T04:28:05Z) - AutoML for Multi-Class Anomaly Compensation of Sensor Drift [44.63945828405864]
センサドリフトは、時間とともに機械学習モデルのパフォーマンスを低下させる。
標準クロスバリデーション法はドリフトの不適切な会計によって性能を過大評価する。
本稿では,(1)モデル検証のための新しいセンサドリフト補償学習パラダイム,(2)分類性能の向上とセンサドリフト補償のための自動機械学習(AutoML)技術を提案する。
論文 参考訳(メタデータ) (2025-02-26T14:34:53Z) - Fast-COS: A Fast One-Stage Object Detector Based on Reparameterized Attention Vision Transformer for Autonomous Driving [3.617580194719686]
本稿では、シーンを駆動するための新しい単一ステージオブジェクト検出フレームワークであるFast-COSを紹介する。
RAViTはImageNet-1Kデータセットで81.4%のTop-1精度を達成した。
主要なモデルの効率を上回り、最大75.9%のGPU推論速度とエッジデバイスでの1.38のスループットを提供する。
論文 参考訳(メタデータ) (2025-02-11T09:54:09Z) - Interpretable Dynamic Graph Neural Networks for Small Occluded Object Detection and Tracking [0.0]
本稿では,動的グラフニューラルネットワーク(DGNN)とYOLO11を統合し,制約に対処する新しいフレームワークであるDGNN-YOLOを紹介する。
標準のGNNとは異なり、DGNNはグラフ構造をリアルタイムで動的に更新する優れた能力のために選択される。
このフレームワークはグラフ表現を構築し、定期的に更新し、ノードとしてオブジェクトをキャプチャし、エッジとして相互作用する。
論文 参考訳(メタデータ) (2024-11-26T09:29:27Z) - Federated Learning framework for LoRaWAN-enabled IIoT communication: A case study [41.831392507864415]
異常検出は、産業部品の異常を防止し、発見する上で重要な役割を担っている。
従来の機械学習は、LoRaWANのようなリソース制約のある環境で異常検出モデルをデプロイする際の課題に直面している。
フェデレートラーニング(FL)は、分散モデルのトレーニング、プライバシの問題への対処、データ転送の最小化によって、この問題を解決する。
論文 参考訳(メタデータ) (2024-10-15T13:48:04Z) - A Computer Vision Enabled damage detection model with improved YOLOv5
based on Transformer Prediction Head [0.0]
現在の最先端ディープラーニング(DL)に基づく損傷検出モデルは、複雑でノイズの多い環境では優れた特徴抽出能力を欠いていることが多い。
DenseSPH-YOLOv5は、DenseNetブロックをバックボーンに統合したリアルタイムDLベースの高性能損傷検出モデルである。
DenseSPH-YOLOv5は平均平均精度(mAP)が85.25%、F1スコアが81.18%、精度(P)が89.51%である。
論文 参考訳(メタデータ) (2023-03-07T22:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。