論文の概要: YawDD+: Frame-level Annotations for Accurate Yawn Prediction
- arxiv url: http://arxiv.org/abs/2512.11446v2
- Date: Mon, 15 Dec 2025 14:34:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 15:10:29.262361
- Title: YawDD+: Frame-level Annotations for Accurate Yawn Prediction
- Title(参考訳): YawDD+: 正確な夜明け予測のためのフレームレベルのアノテーション
- Authors: Ahmed Mujtaba, Gleb Radchenko, Marc Masana, Radu Prodan,
- Abstract要約: ドライバーの疲労は道路事故の主要な原因であり、事故の24%は泥だらけのドライバーである。
そこで我々は,YawDDに適用したHuman-in-the-loop検証を用いた半自動ラベリングパイプラインを開発した。
YawDD+はフレームの精度を6%向上し、mAPは5%向上した。
- 参考スコア(独自算出の注目度): 2.578347047861952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driver fatigue remains a leading cause of road accidents, with 24% of crashes involving drowsy drivers. While yawning serves as an early behavioral indicator of fatigue, existing machine learning approaches face significant challenges due to video-annotated datasets that introduce systematic noise from coarse temporal annotations. We develop a semi-automated labeling pipeline with human-in-the-loop verification, which we apply to YawDD, enabling more accurate model training. Training the established MNasNet classifier and YOLOv11 detector architectures on YawDD+ improves frame accuracy by up to 6% and mAP by 5% over video-level supervision, achieving 99.34% classification accuracy and 95.69% detection mAP. The resulting approach deliver up to 59.8 FPS on edge AI hardware (NVIDIA Jetson Nano), confirming that enhanced data quality alone supports on-device yawning monitoring without server-side computation.
- Abstract(参考訳): ドライバーの疲労は依然として道路事故の主要な原因であり、24%が泥だらけのドライバーによる事故である。
あくびは疲労の初期の行動指標として機能する一方で、既存の機械学習アプローチは、粗い時間的アノテーションから体系的なノイズを導入するビデオアノテートデータセットによって、重大な課題に直面している。
そこで我々は,YawDDに適用したHuman-in-the-loop検証を用いた半自動ラベリングパイプラインを開発し,より正確なモデルトレーニングを実現する。
YawDD+上で確立されたMNasNet分類器とYOLOv11検出器アーキテクチャのトレーニングにより、ビデオレベルの監視よりもフレーム精度が6%向上し、mAPは5%向上し、99.34%の分類精度と95.69%の検出mAPを達成した。
その結果得られたアプローチはエッジAIハードウェア(NVIDIA Jetson Nano)上で最大59.8 FPSを提供する。
関連論文リスト
- ProvRain: Rain-Adaptive Denoising and Vehicle Detection via MobileNet-UNet and Faster R-CNN [0.19116784879310023]
ProvRainは、堅牢な気象条件に一般化するために調整された軽量なMobileNet-U-Netアーキテクチャである。
システムは8.94%の精度向上と10.25%のリコールを達成している。
論文 参考訳(メタデータ) (2025-11-24T18:40:33Z) - 8-Calves Image dataset [0.8233028449337972]
マルチアニマル検出、追跡、識別のための挑戦的なベンチマークである8-Calvesデータセットを紹介した。
バーに8匹のホルスタイン・フリーズ人の子牛の1時間のビデオが映し出され、頻繁にオクルージョン、動きのぼやけ、さまざまなポーズが収められている。
微調整されたYOLOv8検出器とByteTrackを使った半きめのパイプラインと手作業による修正により、537,000以上のバウンディングボックスと時間的アイデンティティラベルが提供される。
論文 参考訳(メタデータ) (2025-03-17T23:47:52Z) - Noisy Test-Time Adaptation in Vision-Language Models [73.14136220844156]
テスト時間適応(TTA)は、テスト中のターゲットデータのみに依存することにより、ソースデータとターゲットデータの分散シフトに対処することを目的としている。
本稿では、ゼロショット方式で、テスト時にノイズのあるサンプルをターゲットとするデータにモデルを適応させることに焦点を当てたゼロショットノイズTTA(ZS-NTTA)を提案する。
本稿では, 冷凍機の出力を擬似ラベルとして利用し, ノイズ検出器の訓練を行う適応ノイズ検出器(AdaND)を提案する。
論文 参考訳(メタデータ) (2025-02-20T14:37:53Z) - Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
ドライバ行動監視ネットワーク(DBMNet)は軽量のバックボーンに依存しており、カメラのビュー情報を破棄するためにアンタングルモジュールを統合する。
DBMNetは、既存のアプローチと比較して、Top-1の精度が7%向上している。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - DT-JRD: Deep Transformer based Just Recognizable Difference Prediction Model for Video Coding for Machines [48.07705666485972]
Just Recognizable difference (JRD) は、機械ビジョンによって検出される最小の視覚差を表す。
本稿では,Deep Transformer-based JRD (DT-JRD) prediction model for Video Coding for Machines (VCM)を提案する。
正確に予測されたJRDは、機械作業の精度を維持しながら、符号化ビットレートを低減できる。
論文 参考訳(メタデータ) (2024-11-14T09:34:36Z) - Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Driver Maneuver Detection and Analysis using Time Series Segmentation
and Classification [7.413735713939367]
本稿では,自然主義運転環境下での車両遠隔計測データから車両の操作を自動的に検出する手法を実装した。
本研究の目的は、自然主義駆動学習ビデオのフレーム・バイ・フレームアノテーションのためのエンドツーエンドパイプラインを開発することである。
論文 参考訳(メタデータ) (2022-11-10T03:38:50Z) - EEG-Fest: Few-shot based Attention Network for Driver's Vigilance
Estimation with EEG Signals [160.57870373052577]
運転士の警戒の欠如は、ほとんどの車両事故の主な原因である。
EEGはドライバーの眠気推定のための信頼性と効率的なツールである。
論文 参考訳(メタデータ) (2022-11-07T21:35:08Z) - Applying Spatiotemporal Attention to Identify Distracted and Drowsy
Driving with Vision Transformers [0.0]
2021年の自動車事故は、2020年に比べて20%増加した。
眠気と気を散らした運転は、全自動車事故の45%の原因である。
本研究は、3D-CNNから最先端の精度を向上するために視覚変換器を用いることを検討した。
論文 参考訳(メタデータ) (2022-07-22T16:36:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。