論文の概要: Deep Learning-Based Visual Fatigue Detection Using Eye Gaze Patterns in VR
- arxiv url: http://arxiv.org/abs/2510.12994v1
- Date: Tue, 14 Oct 2025 21:13:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.425297
- Title: Deep Learning-Based Visual Fatigue Detection Using Eye Gaze Patterns in VR
- Title(参考訳): VRにおける視線パターンを用いた深層学習による視覚疲労検出
- Authors: Numan Zafar, Johnathan Locke, Shafique Ahmad Chaudhry,
- Abstract要約: 仮想現実(VR)システムへの長時間の露出は、視覚的疲労を引き起こし、ユーザの快適さ、パフォーマンス、安全性を損なう。
既存の疲労検出アプローチは、主観的なアンケートや、脳波、心拍数、点眼数などの侵入的な生理的信号に依存している。
本稿では,VRで記録された連続的視線軌跡を用いた視覚疲労検出のための深層学習に基づく研究を紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prolonged exposure to virtual reality (VR) systems leads to visual fatigue, impairs user comfort, performance, and safety, particularly in high-stakes or long-duration applications. Existing fatigue detection approaches rely on subjective questionnaires or intrusive physiological signals, such as EEG, heart rate, or eye-blink count, which limit their scalability and real-time applicability. This paper introduces a deep learning-based study for detecting visual fatigue using continuous eye-gaze trajectories recorded in VR. We use the GazeBaseVR dataset comprising binocular eye-tracking data from 407 participants across five immersive tasks, extract cyclopean eye-gaze angles, and evaluate six deep classifiers. Our results demonstrate that EKYT achieves up to 94% accuracy, particularly in tasks demanding high visual attention, such as video viewing and text reading. We further analyze gaze variance and subjective fatigue measures, indicating significant behavioral differences between fatigued and non-fatigued conditions. These findings establish eye-gaze dynamics as a reliable and nonintrusive modality for continuous fatigue detection in immersive VR, offering practical implications for adaptive human-computer interactions.
- Abstract(参考訳): 仮想現実(VR)システムへの長時間の露出は、視覚的疲労、ユーザーの快適さ、パフォーマンス、安全性を損なう。
既存の疲労検出アプローチは、脳波、心拍数、点眼数などの主観的アンケートや侵入的生理信号に依存しており、そのスケーラビリティとリアルタイム適用性を制限する。
本稿では,VRで記録された連続的視線軌跡を用いた視覚疲労検出のための深層学習に基づく研究を紹介する。
両眼の視線追跡データからなるGazeBaseVRデータセットを用いて,5つの没入作業における407人の視線追跡を行い,サイクロペアン視線角を抽出し,深部分類器を6つ評価した。
以上の結果から,EKYTは最大94%の精度を達成でき,特に映像視聴やテキスト読解などの視覚的注意を必要とするタスクにおいて有効であることが示された。
さらに、視線変動と主観的疲労測定を解析し、疲労状態と非疲労状態の有意な行動差を示した。
これらの知見は、没入型VRにおける継続的な疲労検出のための信頼性と非侵襲的モダリティとしてアイ・ゲイズ・ダイナミクスを確立し、適応型人間とコンピュータの相互作用に実用的な意味を与えている。
関連論文リスト
- EyeSeg: An Uncertainty-Aware Eye Segmentation Framework for AR/VR [58.33693755009173]
EyeSegは拡張現実(AR)と仮想現実(VR)のための不確実性を認識したアイセグメンテーションフレームワーク
我々は,従来のアプローチを超越したMIoU,E1,F1,ACCのセグメンテーション改善を実現していることを示す。
論文 参考訳(メタデータ) (2025-07-13T14:33:10Z) - Non-Contact Health Monitoring During Daily Personal Care Routines [33.93756501373886]
リモート光胸腺撮影(r)は、生理的信号の非接触で連続的なモニタリングを可能にする。
240の同期RGBと、21人の参加者による赤外線(IR)顔画像を含む、最初の長期rラーニングデータセットを提示する。
実験により、RGBとIRビデオの入力を組み合わせることで、非接触的な生理的モニタリングの精度と堅牢性が向上することが示された。
論文 参考訳(メタデータ) (2025-06-11T13:29:21Z) - Cracking the Code of Hallucination in LVLMs with Vision-aware Head Divergence [69.86946427928511]
大型視覚言語モデル(LVLM)における幻覚を駆動する内部メカニズムについて検討する。
本稿では,視覚的コンテキストに対する注目ヘッド出力の感度を定量化する指標として,視覚認識型頭部偏差(VHD)を紹介する。
視覚認識型頭部強化(VHR)は,視覚認識型頭部機能を高めることで幻覚を緩和するための訓練不要なアプローチである。
論文 参考訳(メタデータ) (2024-12-18T15:29:30Z) - Exploring Eye Tracking to Detect Cognitive Load in Complex Virtual Reality Training [11.83314968015781]
視線追跡に基づく機械学習手法を用いて、ユーザの認知負荷を検出するための研究が進行中である。
寒冷噴霧のためのVRトレーニングシステムを開発し,22名の被験者を対象に実験を行った。
予備分析は、複雑なVR体験における認知負荷を検出するためにアイトラッキングを使用することの可能性を示している。
論文 参考訳(メタデータ) (2024-11-18T16:44:19Z) - Real-Time Drowsiness Detection Using Eye Aspect Ratio and Facial Landmark Detection [0.0]
本研究は、視線量比(EAR)と顔のランドマーク検出技術を用いて、眠気を検出するために設計されたリアルタイムシステムを提案する。
EARのしきい値を確立することで、システムはいつ目を閉じているかを識別し、潜在的な眠気を示す。
実験の結果,システムは低計算要求を維持しながら,高い精度で眠気を確実に検出できることがわかった。
論文 参考訳(メタデータ) (2024-08-11T17:34:24Z) - Analyzing Participants' Engagement during Online Meetings Using Unsupervised Remote Photoplethysmography with Behavioral Features [50.82725748981231]
エンゲージメント測定は、医療、教育、サービスに応用される。
生理的特徴と行動的特徴の使用は可能であるが、従来の生理的測定の非現実性は接触センサーの必要性により生じる。
コンタクトセンサの代替として, 教師なし光胸腺造影(胸腔鏡)の有用性を実証する。
論文 参考訳(メタデータ) (2024-04-05T20:39:16Z) - DeepMetricEye: Metric Depth Estimation in Periocular VR Imagery [4.940128337433944]
本稿では,U-Net 3+のディープラーニングバックボーンをベースとした軽量なフレームワークを提案する。
本手法は,3次元眼球周囲領域を再構成し,関連する光刺激計算プロトコルと医療ガイドラインの計量基準を提供する。
被験者36名を対象に, 眼球全球精度評価実験, 瞳孔径測定において有意な有効性を示した。
論文 参考訳(メタデータ) (2023-11-13T10:55:05Z) - Virtual-Reality based Vestibular Ocular Motor Screening for Concussion
Detection using Machine-Learning [0.0]
スポーツ関連脳梗塞(SRC)は視覚・前庭・体性感覚系の感覚情報に依存する。
現在,Vestibular/Ocular Motor Screening (VOMS) を施行中である。
技術の進歩により、VOMSの標準化を進めるためにバーチャルリアリティ(VR)を利用することができる。
論文 参考訳(メタデータ) (2022-10-13T02:09:21Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。