論文の概要: Neuromorphic Sensing for Yawn Detection in Driver Drowsiness
- arxiv url: http://arxiv.org/abs/2305.02888v1
- Date: Thu, 4 May 2023 14:50:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 15:16:31.153961
- Title: Neuromorphic Sensing for Yawn Detection in Driver Drowsiness
- Title(参考訳): ドライバの眠気におけるあくび検出のためのニューロモルフィックセンシング
- Authors: Paul Kielty, Mehdi Sefidgar Dilmaghani, Cian Ryan, Joe Lemley, Peter
Corcoran
- Abstract要約: 本研究は, 顔面領域全体を分析するために, ニューロモルフィックセンシング技術の拡張の可能性を探るものである。
ニューロモルフィックデータセットは、RGBカラーカメラでキャプチャされた962本のビデオクリップ(481本のあくび、471本のノイニング)から構築される。
それぞれの精度とリコールスコアは95.9%、94.7%でした。
- 参考スコア(独自算出の注目度): 1.854931308524932
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Driver monitoring systems (DMS) are a key component of vehicular safety and
essential for the transition from semiautonomous to fully autonomous driving. A
key task for DMS is to ascertain the cognitive state of a driver and to
determine their level of tiredness. Neuromorphic vision systems, based on event
camera technology, provide advanced sensing of facial characteristics, in
particular the behavior of a driver's eyes. This research explores the
potential to extend neuromorphic sensing techniques to analyze the entire
facial region, detecting yawning behaviors that give a complimentary indicator
of tiredness. A neuromorphic dataset is constructed from 952 video clips (481
yawns, 471 not-yawns) captured with an RGB color camera, with 37 subjects. A
total of 95200 neuromorphic image frames are generated from this video data
using a video-to-event converter. From these data 21 subjects were selected to
provide a training dataset, 8 subjects were used for validation data, and the
remaining 8 subjects were reserved for an "unseen" test dataset. An additional
12300 frames were generated from event simulations of a public dataset to test
against other methods. A CNN with self-attention and a recurrent head was
designed, trained, and tested with these data. Respective precision and recall
scores of 95.9 percent and 94.7 percent were achieved on our test set, and 89.9
percent and 91 percent on the simulated public test set, demonstrating the
feasibility to add yawn detection as a sensing component of a neuromorphic DMS.
- Abstract(参考訳): 運転監視システム(DMS)は車体安全の重要な要素であり、半自律運転から完全自律運転への移行に不可欠である。
DMSの重要な課題は、ドライバーの認知状態を確認し、その疲労レベルを決定することである。
ニューロモルフィックな視覚システムは、イベントカメラ技術に基づいて、特に運転者の目の動きを高度な顔特性のセンシングを提供する。
本研究は, 顔面領域全体を解析し, 疲れの相補的な指標となるあくび行動を検出するために, ニューロモルフィックセンシング技術の拡張の可能性を検討する。
ニューロモルフィックなデータセットは、rgbカラーカメラで撮影された952のビデオクリップ(481個のあくび、471個のnot-yawn)と、37人の被験者からなる。
映像変換器を用いて、この映像データから合計95200個のニューロモルフィック画像フレームを生成する。
これらのデータから,学習データセットを提供するために21名の被験者が選択され,検証データに8名の被験者が用いられ,残りの8名の被験者は「見当たらない」テストデータセットに予約された。
他のメソッドをテストするために、パブリックデータセットのイベントシミュレーションからさらに12300フレームが生成された。
自己注意と反復ヘッドを備えたCNNを設計、訓練し、これらのデータでテストした。
それぞれ95.9%と94.7%の正確さとリコールスコアがテストセットで達成され、89.9%と99%がシミュレートされた公開テストセットで達成され、ニューロモルフィックdmsのセンシングコンポーネントとしてあくび検出を加えることが可能であった。
関連論文リスト
- Nighttime Driver Behavior Prediction Using Taillight Signal Recognition
via CNN-SVM Classifier [2.44755919161855]
本研究の目的は、人間駆動車と自律車の両方のテールライトを特定し、夜間運転行動を予測する能力を高めることである。
提案モデルでは、道路の前方のテールライトを正確に検出するカスタム検出器が組み込まれている。
夜間の限られたデータに対処するため、昼間の画像をリアルな夜のイメージに変換するために、ユニークな画素ワイズ画像処理技術を実装した。
論文 参考訳(メタデータ) (2023-10-25T15:23:33Z) - Neuromorphic Seatbelt State Detection for In-Cabin Monitoring with Event
Cameras [0.932065750652415]
本研究は,シートベルト状態検出を含むイベントベースDMS技術を拡張するための概念実証を提供する。
二つの分類課題において, 実検体と実検体でF1スコアが0.989, 0.944と同定された。
論文 参考訳(メタデータ) (2023-08-15T14:27:46Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - "Task-relevant autoencoding" enhances machine learning for human
neuroscience [0.0]
人間の神経科学において、機械学習は被験者の行動に関連する低次元の神経表現を明らかにするのに役立つ。
本研究では,機能拡張(TRACE)によるタスク関連オートエンコーダを開発し,その動作関連表現を抽出する能力を検証した。
TRACEは全てのモデルをほぼ一方的に上回り、分類精度は最大12%向上し、タスク関連表現の発見において最大56%改善した。
論文 参考訳(メタデータ) (2022-08-17T18:44:39Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Designing A Clinically Applicable Deep Recurrent Model to Identify
Neuropsychiatric Symptoms in People Living with Dementia Using In-Home
Monitoring Data [52.40058724040671]
鎮静は認知症において高い有病率を有する神経精神医学症状の1つである。
扇動エピソードの検出は、認知症に生きる人々(PLWD)に早期かつタイムリーな介入を提供するのに役立つ。
本研究は,家庭内モニタリングデータを用いてPLWDの動揺リスクを分析するための教師付き学習モデルを提案する。
論文 参考訳(メタデータ) (2021-10-19T11:45:01Z) - COVID-19 Monitoring System using Social Distancing and Face Mask
Detection on Surveillance video datasets [0.0]
本稿では,人物検出,ソーシャルディスタンシング違反検出,顔検出,顔マスク分類を行うための包括的で効果的なソリューションを提案する。
このシステムは、ラベル付きビデオデータセットで91.2%、F1スコア90.79%の精度で動作し、78フレームの平均予測時間は7.12秒である。
論文 参考訳(メタデータ) (2021-10-08T05:57:30Z) - SOUL: An Energy-Efficient Unsupervised Online Learning Seizure Detection
Classifier [68.8204255655161]
神経活動を記録して発作を検出するインプラントデバイスは、発作を抑えるために警告を発したり神経刺激を誘発したりするために採用されている。
移植可能な発作検出システムでは、低出力で最先端のオンライン学習アルゴリズムを使用して、神経信号のドリフトに動的に適応することができる。
SOULはTSMCの28nmプロセスで0.1mm2を占め、1.5nJ/分級エネルギー効率を実現した。
論文 参考訳(メタデータ) (2021-10-01T23:01:20Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Activity Recognition with Moving Cameras and Few Training Examples:
Applications for Detection of Autism-Related Headbanging [1.603589863010401]
行動認識コンピュータビジョンアルゴリズムは、自閉症に関連する行動の存在を検出するために使用できる。
ヘッドバンジ検出に適用した場合のアクティビティ認識における現在の特徴表現技術の利点と限界を文書化します。
時間分散畳み込みニューラルネットワークを用いて,ホームビデオのヘッドバンジを検出するコンピュータビジョン分類器を作成する。
論文 参考訳(メタデータ) (2021-01-10T05:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。