論文の概要: Evaluating the long-term viability of eye-tracking for continuous authentication in virtual reality
- arxiv url: http://arxiv.org/abs/2502.20359v1
- Date: Thu, 27 Feb 2025 18:32:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:55:26.765438
- Title: Evaluating the long-term viability of eye-tracking for continuous authentication in virtual reality
- Title(参考訳): 仮想現実における連続的認証のための視線追跡の長期生存性の評価
- Authors: Sai Ganesh Grandhi, Saeed Samet,
- Abstract要約: 本研究では,バーチャルリアリティ(VR)環境における連続的認証のための行動バイオメトリクスとしての視線追跡の長期的実現可能性について検討した。
提案手法では,Transformer,DenseNet,XGBoostの3つのアーキテクチャを,短期・長期のデータに基づいて評価し,ユーザ識別タスクの有効性を判定する。
最初の結果は、TransformerモデルとDenseNetモデルの両方が、短期設定で最大97%の精度を達成することを示している。
26ヶ月後に収集されたデータでテストしたところ、モデルの精度は大幅に低下し、いくつかのタスクでは1.78%まで低下した。
- 参考スコア(独自算出の注目度): 0.8192907805418583
- License:
- Abstract: Traditional authentication methods, such as passwords and biometrics, verify a user's identity only at the start of a session, leaving systems vulnerable to session hijacking. Continuous authentication, however, ensures ongoing verification by monitoring user behavior. This study investigates the long-term feasibility of eye-tracking as a behavioral biometric for continuous authentication in virtual reality (VR) environments, using data from the GazebaseVR dataset. Our approach evaluates three architectures, Transformer Encoder, DenseNet, and XGBoost, on short and long-term data to determine their efficacy in user identification tasks. Initial results indicate that both Transformer Encoder and DenseNet models achieve high accuracy rates of up to 97% in short-term settings, effectively capturing unique gaze patterns. However, when tested on data collected 26 months later, model accuracy declined significantly, with rates as low as 1.78% for some tasks. To address this, we propose periodic model updates incorporating recent data, restoring accuracy to over 95%. These findings highlight the adaptability required for gaze-based continuous authentication systems and underscore the need for model retraining to manage evolving user behavior. Our study provides insights into the efficacy and limitations of eye-tracking as a biometric for VR authentication, paving the way for adaptive, secure VR user experiences.
- Abstract(参考訳): パスワードや生体認証などの従来の認証手法は、セッションの開始時にのみユーザのアイデンティティを検証し、セッションのハイジャックに脆弱なシステムを残す。
しかし、継続的な認証は、ユーザの振る舞いを監視することによって、継続的な検証を保証する。
本研究では、GazebaseVRデータセットから得られたデータを用いて、仮想現実(VR)環境における連続的な認証のための行動バイオメトリックとしての視線追跡の長期的な実現可能性について検討した。
提案手法では,Transformer Encoder,DenseNet,XGBoostの3つのアーキテクチャを,短期・長期のデータに基づいて評価し,ユーザ識別タスクの有効性を判定する。
最初の結果は、Transformer EncoderモデルとDenseNetモデルの両方が、短期設定で最大97%の精度を実現し、ユニークな視線パターンを効果的に捉えていることを示している。
しかし、26ヶ月後に収集されたデータでテストした結果、モデルの精度は大幅に低下し、いくつかのタスクでは1.78%まで低下した。
そこで本研究では,最近のデータを組み込んだ定期的なモデル更新を提案し,精度を95%以上に復元する。
これらの知見は、視線に基づく連続認証システムに必要な適応性を強調し、進化するユーザの振る舞いを管理するためのモデル再トレーニングの必要性を浮き彫りにしている。
我々の研究は、VR認証の生体認証としての視線追跡の有効性と限界に関する洞察を提供し、適応的でセキュアなVRユーザー体験の道を開いた。
関連論文リスト
- KDPrint: Passive Authentication using Keystroke Dynamics-to-Image Encoding via Standardization [7.251941112707364]
本稿では,プライマリ認証方式の副産物であるキーストロークデータを背景ユーザ認証に用いる受動的認証システムを提案する。
本稿では,キーストロークデータの時間的ダイナミクスを捉え,ディープラーニングモデルの性能制限を克服する新しい画像符号化手法を提案する。
実験の結果,提案手法は情報容量の面で既存の手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-05-02T08:18:37Z) - Privacy-Preserving Gaze Data Streaming in Immersive Interactive Virtual Reality: Robustness and User Experience [11.130411904676095]
アイトラッキングデータが露出すれば、再識別攻撃に使用できる。
対話型VRアプリケーションのためのリアルタイムプライバシメカニズムを評価する手法を開発した。
論文 参考訳(メタデータ) (2024-02-12T14:53:12Z) - Using Motion Forecasting for Behavior-Based Virtual Reality (VR)
Authentication [8.552737863305213]
本稿では,トランスフォーマーを用いた予測と,予測軌道を用いてユーザ認証を行うことによって,将来のユーザ行動を予測する手法を提案する。
提案手法では,認証等価エラー率(EER)を平均23.85%,最大36.14%削減する。
論文 参考訳(メタデータ) (2024-01-30T00:43:41Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Evaluation of a User Authentication Schema Using Behavioral Biometrics
and Machine Learning [0.0]
本研究では,行動バイオメトリックスを用いたユーザ認証手法の作成と評価により,行動バイオメトリックスの研究に寄与する。
この研究で用いられる行動バイオメトリクスには、タッチダイナミクスと電話の動きがある。
2つのバイオメトリックスの異なる単一モーダルと多モーダルの組み合わせの性能を評価する。
論文 参考訳(メタデータ) (2022-05-07T05:16:34Z) - RealGait: Gait Recognition for Person Re-Identification [79.67088297584762]
我々は,既存の映像人物の再識別課題からシルエットを抽出し,制約のない方法で歩く1,404人からなる新たな歩行データセットを構築した。
以上の結果から、実際の監視シナリオにおける歩行による認識は実現可能であり、その基盤となる歩行パターンが、実際にビデオの人物認識が機能する真の理由である可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-13T06:30:56Z) - Lifelong Unsupervised Domain Adaptive Person Re-identification with
Coordinated Anti-forgetting and Adaptation [127.6168183074427]
本稿では,LUDA (Lifelong Unsupervised Domain Adaptive) という新たなタスクを提案する。
これは、モデルがターゲット環境のラベル付けされていないデータに継続的に適応する必要があるため、難しい。
我々は、CLUDA-ReIDと呼ばれるこのタスクのための効果的なスキームを設計し、そこでは、アンチフォージェッティングが適応と調和して調整される。
論文 参考訳(メタデータ) (2021-12-13T13:19:45Z) - Data-driven behavioural biometrics for continuous and adaptive user
verification using Smartphone and Smartwatch [0.0]
行動バイオメトリックスと多要素認証(MFA)をブレンドするアルゴリズムを提案する。
本研究では,モーションベースバイオメトリックスを用いてユーザの身元を検証するための2段階のユーザ検証アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-07T02:46:21Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。