論文の概要: in-Car Biometrics (iCarB) Datasets for Driver Recognition: Face, Fingerprint, and Voice
- arxiv url: http://arxiv.org/abs/2411.17305v1
- Date: Tue, 26 Nov 2024 10:52:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:34:59.068127
- Title: in-Car Biometrics (iCarB) Datasets for Driver Recognition: Face, Fingerprint, and Voice
- Title(参考訳): In-Car Biometrics (iCarB) Datasets for Driver Recognition: Face, Fingerprint, Voice
- Authors: Vedrana Krivokuca Hahn, Jeremy Maceiras, Alain Komaty, Philip Abbet, Sebastien Marcel,
- Abstract要約: 生体計測データ(iCarB-Face、iCarB-Fingerprint、iCarB-Voice)には、顔ビデオ、指紋画像、音声サンプルを含む。
データは赤外線カメラ2台、指紋スキャナー2台、マイク2台で取得され、ボランティアは運転席に座っていた。
- 参考スコア(独自算出の注目度): 1.3980986259786223
- License:
- Abstract: We present three biometric datasets (iCarB-Face, iCarB-Fingerprint, iCarB-Voice) containing face videos, fingerprint images, and voice samples, collected inside a car from 200 consenting volunteers. The data was acquired using a near-infrared camera, two fingerprint scanners, and two microphones, while the volunteers were seated in the driver's seat of the car. The data collection took place while the car was parked both indoors and outdoors, and different "noises" were added to simulate non-ideal biometric data capture that may be encountered in real-life driver recognition. Although the datasets are specifically tailored to in-vehicle biometric recognition, their utility is not limited to the automotive environment. The iCarB datasets, which are available to the research community, can be used to: (i) evaluate and benchmark face, fingerprint, and voice recognition systems (we provide several evaluation protocols); (ii) create multimodal pseudo-identities, to train/test multimodal fusion algorithms; (iii) create Presentation Attacks from the biometric data, to evaluate Presentation Attack Detection algorithms; (iv) investigate demographic and environmental biases in biometric systems, using the provided metadata. To the best of our knowledge, ours are the largest and most diverse publicly available in-vehicle biometric datasets. Most other datasets contain only one biometric modality (usually face), while our datasets consist of three modalities, all acquired in the same automotive environment. Moreover, iCarB-Fingerprint seems to be the first publicly available in-vehicle fingerprint dataset. Finally, the iCarB datasets boast a rare level of demographic diversity among the 200 data subjects, including a 50/50 gender split, skin colours across the whole Fitzpatrick-scale spectrum, and a wide age range (18-60+). So, these datasets will be valuable for advancing biometrics research.
- Abstract(参考訳): iCarB-Face, iCarB-Fingerprint, iCarB-Voiceの3つのバイオメトリック・データセットに顔ビデオ, 指紋画像, 音声サンプルを収録し, 200人の同意者から車内で収集した。
データは赤外線カメラ2台、指紋スキャナー2台、マイク2台で取得され、ボランティアは運転席に座っていた。
データ収集は、車が屋内と屋外の両方に駐車している間に行われ、実際のドライバー認識で発生する可能性のある非理想的生体データキャプチャーをシミュレートするために、異なる「ノイズ」が追加された。
データセットは車内バイオメトリック認識に特化しているが、その実用性は自動車環境に限らない。
iCarBデータセットは、研究コミュニティで利用可能である。
(i)顔・指紋・音声認識システムの評価・評価(いくつかの評価プロトコルを提供する)
(二)マルチモーダル融合アルゴリズムを訓練・試験するために、マルチモーダル擬似IDを作成すること。
三 生体データから提示攻撃を作成し、提示攻撃検出アルゴリズムを評価すること。
(4) 提供されたメタデータを用いて, バイオメトリックシステムにおける人口動態と環境バイアスを調査した。
私たちの知識を最大限に活用するために、当社は最も大きく、最も多種多様な車載バイオメトリクスデータセットを公開しています。
他のほとんどのデータセットは1つのバイオメトリック・モダリティ(通常は顔)しか含まないが、私たちのデータセットは3つのモダリティから構成されており、すべて同じ自動車環境で取得されている。
さらに、iCarB-Fingerprintは、初めて公開された車載指紋データセットであるようだ。
最後に、iCarBデータセットは、50/50の性別分割、フィッツパトリックスケールのスペクトル全体にわたる肌の色、および広範囲の年齢範囲(18-60+)を含む200のデータ被験者の間で、まれなレベルの多様性を誇っている。
そのため、これらのデータセットはバイオメトリックス研究の進展に有用だ。
関連論文リスト
- VBR: A Vision Benchmark in Rome [1.71787484850503]
本稿では,RGBデータ,3次元点雲,IMU,GPSデータを含む,ローマで収集された視覚・知覚研究データセットについて述べる。
我々は、自律ロボット工学とコンピュータビジョンの研究を進めるために、視覚計測とSLAMをターゲットにした新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2024-04-17T12:34:49Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - OpenDriver: An Open-Road Driver State Detection Dataset [13.756530418314227]
本稿では,運転状態検出のための大規模マルチモーダル運転データセット OpenDriver を提案する。
OpenDriverは合計3,278回の運転で、信号収集期間は約4,600時間である。
論文 参考訳(メタデータ) (2023-04-09T10:08:38Z) - Multi-Channel Time-Series Person and Soft-Biometric Identification [65.83256210066787]
本研究は, 深層建築を用いて異なる活動を行う人間の記録から, 個人とソフトバイオメトリックスを同定する。
マルチチャネル時系列ヒューマンアクティビティ認識(HAR)の4つのデータセットに対する手法の評価を行った。
ソフトバイオメトリクスに基づく属性表現は、有望な結果を示し、より大きなデータセットの必要性を強調している。
論文 参考訳(メタデータ) (2023-04-04T07:24:51Z) - SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving [41.221988979184665]
SUPSは地下自動駐車のシミュレーションデータセットである。
複数のセンサーと連続したイメージに合わせた複数のセマンティックラベルを備えた複数のタスクをサポートする。
また、我々のデータセット上で、最先端のSLAMアルゴリズムと知覚モデルを評価する。
論文 参考訳(メタデータ) (2023-02-25T02:59:12Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Multilingual Audio-Visual Smartphone Dataset And Evaluation [35.82191448400655]
最新の5つのスマートフォンで収集された音声・視覚スマートフォンのデータセットを提示する。
このデータセットでは、話者認識システムの言語依存の問題を含むために、3つの異なる言語が取得される。
また,ベンチマーク付生体認証システムの性能について報告する。
論文 参考訳(メタデータ) (2021-09-09T09:52:37Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - End-to-end User Recognition using Touchscreen Biometrics [11.394909061094463]
目標は、モバイルデバイスの生データを使ってユーザーを透過的に識別できるエンドツーエンドシステムを作ることだった。
提案するシステムでは,タッチスクリーンからのデータはディープニューラルネットワークの入力に直接反映され,ユーザの同一性を決定することができる。
論文 参考訳(メタデータ) (2020-06-09T16:38:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。