論文の概要: Beyond Gaze Points: Augmenting Eye Movement with Brainwave Data for Multimodal User Authentication in Extended Reality
- arxiv url: http://arxiv.org/abs/2404.18694v1
- Date: Mon, 29 Apr 2024 13:42:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 13:38:04.339930
- Title: Beyond Gaze Points: Augmenting Eye Movement with Brainwave Data for Multimodal User Authentication in Extended Reality
- Title(参考訳): 注視点を超えて:拡張現実におけるマルチモーダルユーザ認証のための脳波データによる眼球運動の増強
- Authors: Matin Fallahi, Patricia Arias-Cabarcos, Thorsten Strufe,
- Abstract要約: 眼球運動と脳波パターンを組み合わせた多モード生体認証システムを提案する。
本システムでは、眼球運動モードと比較して、EERが83.6%減少する、優れたEER(Equal Error Rate)が0.298%となる。
- 参考スコア(独自算出の注目度): 4.114205202954365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing adoption of Extended Reality (XR) in various applications underscores the need for secure and user-friendly authentication methods. However, existing methods can disrupt the immersive experience in XR settings, or suffer from higher false acceptance rates. In this paper, we introduce a multimodal biometric authentication system that combines eye movement and brainwave patterns, as captured by consumer-grade low-fidelity sensors. Our multimodal authentication exploits the non-invasive and hands-free properties of eye movement and brainwaves to provide a seamless XR user experience and enhanced security as well. Using synchronized eye and brainwave data collected from 30 participants through consumer-grade devices, we investigated whether twin neural networks can utilize these biometrics for identity verification. Our multimodal authentication system yields an excellent Equal Error Rate (EER) of 0.298\%, which means an 83.6\% reduction in EER compared to the single eye movement modality or a 93.9\% reduction in EER compared to the single brainwave modality.
- Abstract(参考訳): 様々なアプリケーションにおける拡張現実性(XR)の採用の増加は、セキュアでユーザフレンドリな認証方法の必要性を浮き彫りにしている。
しかし、既存の手法はXR設定における没入感を損なう可能性がある。
本稿では,眼球運動と脳波パターンを組み合わせた多モード生体認証システムを提案する。
当社のマルチモーダル認証では,眼球運動や脳波の非侵襲的・非侵襲的特性を利用して,シームレスなXRユーザエクスペリエンスとセキュリティ向上を実現している。
そこで我々は,30人の被験者から収集した近視・脳波データを用いて,このバイオメトリックスを生体認証に活用できるかどうかを検討した。
マルチモーダル認証システムでは、眼球運動モードに比べてEERが83.6倍、脳波モードに比べて93.9倍と優れたEER(Equal Error Rate)が生成される。
関連論文リスト
- Bridging the Gap Between End-to-End and Two-Step Text Spotting [88.14552991115207]
ブリッジングテキストスポッティングは、2段階のメソッドでエラーの蓄積と最適化性能の問題を解決する新しいアプローチである。
提案手法の有効性を広範囲な実験により実証する。
論文 参考訳(メタデータ) (2024-04-06T13:14:04Z) - On the Usability of Next-Generation Authentication: A Study on Eye Movement and Brainwave-based Mechanisms [4.114205202954365]
眼球運動や脳波などの行動生物学的要因に基づく次世代認証機構が出現している。
本研究は, システムユーザビリティ尺度により, いずれのメカニズムについても, 全体的なユーザビリティが良好であることを示す。
プライバシー、認証インターフェース設計、検証時間という3つの改善点を特定します。
論文 参考訳(メタデータ) (2024-02-23T15:34:43Z) - NeuroIDBench: An Open-Source Benchmark Framework for the Standardization of Methodology in Brainwave-based Authentication Research [4.9286860173040825]
脳活動に基づく生体認証システムは、パスワードに代わるものや、現在の認証技術を補完するものとして提案されている。
NeuroIDBenchは、脳波ベースの認証モデルをベンチマークするための柔軟なオープンソースツールである。
論文 参考訳(メタデータ) (2024-02-13T18:38:18Z) - IdentiFace : A VGG Based Multimodal Facial Biometric System [0.0]
アイデンティフェイス(IdentiFace)は、顔認識のコアと、性別、顔の形、感情など、最も重要な生体認証特性を結合した多モード顔バイオメトリックシステムである。
認識問題として、ferETデータベースから収集したデータを用いて、クラス内変動の高い5つのクラスに対して99.2%の精度で検定を行った。
また、有名人の顔形状データセットを用いて、顔形状問題において88.03%の精度を達成できた。
論文 参考訳(メタデータ) (2024-01-02T14:36:28Z) - Log-Likelihood Score Level Fusion for Improved Cross-Sensor Smartphone
Periocular Recognition [52.15994166413364]
我々は、複数のコンパレータを融合させて、異なるスマートフォンの画像を比較する際に、眼周囲の性能を改善する。
我々は線形ロジスティック回帰に基づく確率的融合フレームワークを使用し、融合したスコアはログライクな比率になる傾向にある。
我々のフレームワークは、同じセンサとクロスセンサーのスコア分布が整列され、共通の確率領域にマッピングされるため、異なるデバイスからの信号を処理するためのエレガントでシンプルなソリューションも提供します。
論文 参考訳(メタデータ) (2023-11-02T13:43:44Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - Benchmarking Quality-Dependent and Cost-Sensitive Score-Level Multimodal
Biometric Fusion Algorithms [58.156733807470395]
本稿では,BioSecure DS2 (Access Control) 評価キャンペーンの枠組み内で実施したベンチマーク研究について報告する。
キャンペーンは、約500人の中規模施設における物理的アクセス制御の適用を目標とした。
我々の知る限りでは、これは品質ベースのマルチモーダル融合アルゴリズムをベンチマークする最初の試みである。
論文 参考訳(メタデータ) (2021-11-17T13:39:48Z) - Opportunistic Implicit User Authentication for Health-Tracking IoT
Wearables [1.8352113484137629]
我々は,Oximeter デバイスから採取した血液酸素飽和率 SpO2 値の有用性を検討した。
25人の被験者のコホートから、SpO2の92%が、ペアのユーザを区別できることがわかった。
これらの結果は、他の生体認証とともにSpO2を使用して、ウェアラブルの暗黙的な連続認証を開発することを約束している。
論文 参考訳(メタデータ) (2021-09-28T13:18:36Z) - Context-Dependent Implicit Authentication for Wearable Device User [1.827510863075184]
本稿では,心拍,歩行,呼吸音声信号を利用した文脈依存型生体認証システムを提案する。
詳細な分析から、放射基底関数(RBF)カーネルを持つバイナリサポートベクターマシン(SVM)が平均精度92.84%を達成することが判明した。
論文 参考訳(メタデータ) (2020-08-25T04:34:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。