論文の概要: The Detection of Saccadic Eye Movements and Per-Eye Comparisons using Virtual Reality Eye Tracking Devices
- arxiv url: http://arxiv.org/abs/2503.08926v1
- Date: Tue, 11 Mar 2025 22:15:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:38:48.776555
- Title: The Detection of Saccadic Eye Movements and Per-Eye Comparisons using Virtual Reality Eye Tracking Devices
- Title(参考訳): 仮想視線追跡装置を用いたサッカディック眼球運動の検出と眼球運動の比較
- Authors: Teran Bukenberger, Brent Davis,
- Abstract要約: この研究は、サスカデック眼球運動に関して、VRアイトラッキング技術と神経科学に関するものである。
このソフトウェアは、サッケードの発生時期を正確に検出し、サッケード眼球運動の違いを分析することが期待されている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Eye tracking has been found to be useful in various tasks including diagnostic and screening tools. However, traditional eye trackers had a complicated setup and operated at a higher frequency to measure eye movements. The use of more commonly available eye trackers such as those in head-mounted virtual reality (VR) headsets greatly expands the utility of these eye trackers for research and analytical purposes. In this study, the research question is focused on detecting saccades, which is a common task when analyzing eye tracking data, but it is not well-established for VR headset-mounted eye trackers. The aim is to determine how accurately saccadic eye movements can be detected using an eye tracker that operates at 60 or 90Hz. The study involves VR eye tracking technology and neuroscience with respect to saccadic eye movements. The goal is to build prototype software implemented using VR eye tracking technology to detect saccadic eye movements, and per-eye differences in an individual. It is anticipated that the software will be able to accurately detect when saccades occur and analyze the differences in saccadic eye movements per-eye. The field of research surrounding VR eye tracking software is still developing rapidly, specifically its applications to neuroscience. Since previous methods of eye tracking involved specialized equipment, using commercially and consumer available VR eye tracking technology to assist in the detection of saccades and per-eye differences would be novel. This project will impact the field of neuroscience by providing a tool that can be used to detect saccadic eye movements and neurological and neurodegenerative disorders. However, this project is limited by the short time frame and that the eye tracker used in this study operates at a maximum frequency of 90Hz.
- Abstract(参考訳): アイトラッキングは、診断やスクリーニングツールを含む様々なタスクで有用であることが判明した。
しかし、従来の眼球追跡装置は複雑な装置を備えており、眼球運動を測定するために高い周波数で作動していた。
ヘッドマウント型バーチャルリアリティー(VR)ヘッドセットのようなより一般的なアイトラッカーの使用は、研究および分析目的のためにこれらのアイトラッカーの有用性を大幅に拡張する。
本研究は,視線追跡データ解析における共通課題であるササードの検出に焦点をあてるものであるが,VRヘッドセット搭載眼球追跡装置の確立には至っていない。
目的は、60Hzから90Hzの眼球運動を正確に検出することである。
この研究は、サスカデック眼球運動に関して、VRアイトラッキング技術と神経科学に関するものである。
目標は、VRアイトラッキング技術を用いて実装されたプロトタイプソフトウェアを構築し、サスカデックアイの動きを検出し、個人ごとの違いを検出することだ。
このソフトウェアは、サッケードの発生時期を正確に検出し、サッケード眼球運動の違いを分析することが期待されている。
VRアイトラッキングソフトウェアに関する研究分野はまだ急速に発展しており、特に神経科学への応用が進んでいる。
従来のアイトラッキング技術では特殊な装置が用いられていたため、市販のVRアイトラッキング技術を使ってサケードの検出や目ごとの違いの発見を補助することは珍しい。
このプロジェクトは、サスカデック眼球運動や神経学的、神経変性疾患を検出するツールを提供することで、神経科学の分野に影響を及ぼす。
しかし、このプロジェクトは短い時間枠で制限されており、この研究で使用されるアイトラッカーは90Hzの最高周波数で動作する。
関連論文リスト
- Exploring Eye Tracking to Detect Cognitive Load in Complex Virtual Reality Training [11.83314968015781]
視線追跡に基づく機械学習手法を用いて、ユーザの認知負荷を検出するための研究が進行中である。
寒冷噴霧のためのVRトレーニングシステムを開発し,22名の被験者を対象に実験を行った。
予備分析は、複雑なVR体験における認知負荷を検出するためにアイトラッキングを使用することの可能性を示している。
論文 参考訳(メタデータ) (2024-11-18T16:44:19Z) - EyeTrAES: Fine-grained, Low-Latency Eye Tracking via Adaptive Event Slicing [2.9795443606634917]
EyeTrAESは、自然眼球運動の高忠実度追跡のためのニューロモルフィックイベントカメラを用いた新しいアプローチである。
その結果,EyeTrAESの瞳孔追跡精度は6+%向上し,IoU=92%,IoU=32%向上した。
頑健なユーザ認証のために,短期瞳孔運動学の特徴ベクトルを用いて,ユーザ当たりの軽量なランダムフォレスト分類器を訓練する。
論文 参考訳(メタデータ) (2024-09-27T15:06:05Z) - A Framework for Pupil Tracking with Event Cameras [1.708806485130162]
サッカデス(Saccades)は、同時に起こる両眼の非常に速い動きである。
ササード中の眼の最高角速度は、ヒトでは700deg/sに達する。
標準的なディープラーニングアルゴリズムで容易に利用できるフレームとしてイベントを提示する。
論文 参考訳(メタデータ) (2024-07-23T17:32:02Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Open Gaze: Open Source eye tracker for smartphone devices using Deep Learning [0.0]
本稿では,GooglePaperが提案する方法論をエミュレートした,スマートフォンベースのガウントラッカーのオープンソース実装について述べる。
機械学習技術の統合により、スマートフォンにネイティブな正確な視線追跡ソリューションを公開する。
本研究は眼球運動研究を顕著に増幅する本質的な可能性を示すものである。
論文 参考訳(メタデータ) (2023-08-25T17:10:22Z) - QuestSim: Human Motion Tracking from Sparse Sensors with Simulated
Avatars [80.05743236282564]
人間の身体の動きのリアルタイム追跡は、AR/VRにおける没入感のある体験に不可欠である。
本稿では,HMDと2つのコントローラから疎信号を取り出す強化学習フレームワークを提案する。
一つのポリシーは、多様な移動スタイル、異なる体の大きさ、新しい環境に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:25:54Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - Learning Effect of Lay People in Gesture-Based Locomotion in Virtual
Reality [81.5101473684021]
最も有望な方法はジェスチャーベースであり、追加のハンドヘルドハードウェアを必要としない。
最近の研究は、主に異なるロコモーションテクニックのユーザの好みとパフォーマンスに焦点を当てている。
本研究は,VRにおける手のジェスチャーに基づくロコモーションシステムへの適応の迅速さについて検討した。
論文 参考訳(メタデータ) (2022-06-16T10:44:16Z) - Do Pedestrians Pay Attention? Eye Contact Detection in the Wild [75.54077277681353]
都市環境では、人間は近くの人々との迅速かつ効率的なコミュニケーションのためにアイコンタクトに依存している。
本稿では,環境や歩行者距離を制御できない自動運転車の眼球接触検出,すなわち実世界のシナリオに着目した。
本稿では, セマンティックキーポイントを利用したアイコンタクト検出モデルを導入し, このハイレベルな表現が, 一般公開データセットJAADの最先端結果を実現することを示す。
ドメイン適応を研究するために、私たちは、野生のアイコンタクト検出のための大規模データセット、LOOKを作成しました。
論文 参考訳(メタデータ) (2021-12-08T10:21:28Z) - MTCD: Cataract Detection via Near Infrared Eye Images [69.62768493464053]
白内障は一般的な眼疾患であり、盲目や視力障害の主な原因の1つである。
近赤外画像を用いた白内障検出のための新しいアルゴリズムを提案する。
深層学習に基づくアイセグメンテーションとマルチタスクネットワーク分類ネットワークについて述べる。
論文 参考訳(メタデータ) (2021-10-06T08:10:28Z) - Towards Hardware-Agnostic Gaze-Trackers [0.5512295869673146]
本稿では、制約付き視線追跡のための外観に基づく手法として、ディープニューラルネットワークアーキテクチャを提案する。
我々のシステムは、キャリブレーションやデバイス固有の微調整なしで、GazeCaptureデータセット上で1.8073cmの誤差を達成した。
論文 参考訳(メタデータ) (2020-10-11T00:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。