論文の概要: UL-DD: A Multimodal Drowsiness Dataset Using Video, Biometric Signals, and Behavioral Data
- arxiv url: http://arxiv.org/abs/2507.13403v1
- Date: Wed, 16 Jul 2025 21:44:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.077342
- Title: UL-DD: A Multimodal Drowsiness Dataset Using Video, Biometric Signals, and Behavioral Data
- Title(参考訳): UL-DD:ビデオ,生体信号,行動データを用いたマルチモーダルドロージーデータセット
- Authors: Morteza Bodaghi, Majid Hosseini, Raju Gottumukkala, Ravi Teja Bhupatiraju, Iftikhar Ahmad, Moncef Gabbouj,
- Abstract要約: このデータセットには、深度カメラ、赤外線カメラの映像、後部ビデオ、心拍数、脳波活動、血液酸素飽和、皮膚温度、加速度計データなどの生体信号を用いた3D顔画像が含まれる。
カロリンスカ睡眠度尺度(KSS)を用いて4分毎に眠気レベルを自己申告した。
本研究の目的は、より広範な生理的、行動的、運転関連の信号をキャプチャする、ドライバーの眠気に関する包括的なマルチモーダルデータセットを作成することである。
- 参考スコア(独自算出の注目度): 11.879350713051698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we present a comprehensive public dataset for driver drowsiness detection, integrating multimodal signals of facial, behavioral, and biometric indicators. Our dataset includes 3D facial video using a depth camera, IR camera footage, posterior videos, and biometric signals such as heart rate, electrodermal activity, blood oxygen saturation, skin temperature, and accelerometer data. This data set provides grip sensor data from the steering wheel and telemetry data from the American truck simulator game to provide more information about drivers' behavior while they are alert and drowsy. Drowsiness levels were self-reported every four minutes using the Karolinska Sleepiness Scale (KSS). The simulation environment consists of three monitor setups, and the driving condition is completely like a car. Data were collected from 19 subjects (15 M, 4 F) in two conditions: when they were fully alert and when they exhibited signs of sleepiness. Unlike other datasets, our multimodal dataset has a continuous duration of 40 minutes for each data collection session per subject, contributing to a total length of 1,400 minutes, and we recorded gradual changes in the driver state rather than discrete alert/drowsy labels. This study aims to create a comprehensive multimodal dataset of driver drowsiness that captures a wider range of physiological, behavioral, and driving-related signals. The dataset will be available upon request to the corresponding author.
- Abstract(参考訳): 本研究では,顔,行動,生体計測のマルチモーダル信号を統合し,運転者の眠気検知のための包括的公開データセットを提案する。
我々のデータセットには、深度カメラ、赤外線カメラ映像、後部ビデオ、心拍数、脳波活動、血液酸素飽和、皮膚温度、加速度計データなどの生体信号を用いた3D顔画像が含まれています。
このデータセットは、ハンドルからのグリップセンサーのデータと、アメリカのトラックシミュレーターゲームからのテレメトリデータを提供し、ドライバーの行動に関するより詳細な情報を提供する。
眠気レベルはKSS(Karolinska Sleepiness Scale)を使用して4分毎に自己報告された。
シミュレーション環境は3つの監視装置で構成され、駆動状態は車と全く同じである。
被験者19名 (15M, 4F) から, 完全覚醒時と睡眠の兆候が認められたときの2つの条件でデータを収集した。
他のデータセットとは異なり、我々のマルチモーダルデータセットは、被験者毎のデータ収集セッション毎に40分間持続し、合計で1,400分となり、個別のアラート/ドローシーラベルではなく、ドライバー状態の段階的な変化を記録しました。
本研究の目的は、より広範な生理的、行動的、運転関連の信号をキャプチャする、ドライバーの眠気に関する包括的なマルチモーダルデータセットを作成することである。
データセットは、対応する著者へのリクエストで利用可能になる。
関連論文リスト
- SimBEV: A Synthetic Multi-Task Multi-Sensor Driving Data Generation Tool and Dataset [101.51012770913627]
近年,BEV(Bird's-eye view)の認識は自律運転において大きな注目を集めている。
SimBEVは、広範囲にスケーラブルでスケーラブルなランダム化された合成データ生成ツールである。
SimBEVは、さまざまな運転シナリオからの注釈付き知覚データの大規模なコレクションであるSimBEVデータセットを作成するために使用される。
論文 参考訳(メタデータ) (2025-02-04T00:00:06Z) - in-Car Biometrics (iCarB) Datasets for Driver Recognition: Face, Fingerprint, and Voice [1.3980986259786223]
生体計測データ(iCarB-Face、iCarB-Fingerprint、iCarB-Voice)には、顔ビデオ、指紋画像、音声サンプルを含む。
データは赤外線カメラ2台、指紋スキャナー2台、マイク2台で取得され、ボランティアは運転席に座っていた。
論文 参考訳(メタデータ) (2024-11-26T10:52:15Z) - Scaling Wearable Foundation Models [54.93979158708164]
センサ基礎モデルのスケーリング特性を計算,データ,モデルサイズにわたって検討する。
最大4000万時間分の心拍数、心拍変動、心電図活動、加速度計、皮膚温度、および1分間のデータを用いて、私たちはLSMを作成します。
この結果から,LSMのスケーリング法則は,時間とセンサの両面において,計算や外挿などのタスクに対して確立されている。
論文 参考訳(メタデータ) (2024-10-17T15:08:21Z) - SCaRL- A Synthetic Multi-Modal Dataset for Autonomous Driving [0.0]
本稿では、自律運転ソリューションのトレーニングと検証を可能にするために、合成生成された新しいマルチモーダルデータセットであるSCaRLを提案する。
SCaRLはCARLA Simulatorに基づく大規模なデータセットであり、多様な動的シナリオとトラフィック条件のためのデータを提供する。
論文 参考訳(メタデータ) (2024-05-27T10:31:26Z) - MTMMC: A Large-Scale Real-World Multi-Modal Camera Tracking Benchmark [63.878793340338035]
マルチターゲットマルチカメラトラッキングは、複数のカメラからのビデオストリームを使用して個人を特定し、追跡する重要なタスクである。
このタスクの既存のデータセットは、制御されたカメラネットワーク設定内で合成または人工的に構築される。
我々は16台のマルチモーダルカメラで2つの異なる環境でキャプチャされた長いビデオシーケンスを含む実世界の大規模データセットであるMTMMCを紹介する。
論文 参考訳(メタデータ) (2024-03-29T15:08:37Z) - Multimodal Brain-Computer Interface for In-Vehicle Driver Cognitive Load
Measurement: Dataset and Baselines [20.22894459715378]
本稿では,新しいドライバ認知負荷評価データセットCL-Driveを紹介する。
データは、没入型車両シミュレーターで運転中に21人の被験者から収集された。
各ドライバーは、実験を通して10秒ごとに主観的認知負荷を報告した。
論文 参考訳(メタデータ) (2023-04-09T16:35:31Z) - OpenDriver: An Open-Road Driver State Detection Dataset [13.756530418314227]
本稿では,運転状態検出のための大規模マルチモーダル運転データセット OpenDriver を提案する。
OpenDriverは合計3,278回の運転で、信号収集期間は約4,600時間である。
論文 参考訳(メタデータ) (2023-04-09T10:08:38Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - 4Seasons: A Cross-Season Dataset for Multi-Weather SLAM in Autonomous Driving [43.09957836757648]
本稿では,自律運転における季節的・挑戦的な知覚条件をカバーする新しいデータセットを提案する。
その中には、視覚計測、グローバルな位置認識、マップベースの再位置追跡などが含まれる。
論文 参考訳(メタデータ) (2020-09-14T12:31:20Z) - DMD: A Large-Scale Multi-Modal Driver Monitoring Dataset for Attention
and Alertness Analysis [54.198237164152786]
視覚は運転監視システム(DMS)の最も豊かで費用対効果の高い技術である
十分に大規模で包括的なデータセットの欠如は、DMS開発の進展のボトルネックとなっている。
本稿では,実運転シナリオとシミュレーション運転シナリオを含む広範囲なデータセットであるドライバモニタリングデータセット(DMD)を紹介する。
論文 参考訳(メタデータ) (2020-08-27T12:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。