論文の概要: EyeTrAES: Fine-grained, Low-Latency Eye Tracking via Adaptive Event Slicing
- arxiv url: http://arxiv.org/abs/2409.18813v1
- Date: Fri, 27 Sep 2024 15:06:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-01 09:08:34.830028
- Title: EyeTrAES: Fine-grained, Low-Latency Eye Tracking via Adaptive Event Slicing
- Title(参考訳): EyeTrAES: 適応イベントスライシングによる微細で低レイテンシなアイトラッキング
- Authors: Argha Sen, Nuwan Bandara, Ila Gokarn, Thivya Kandappu, Archan Misra,
- Abstract要約: EyeTrAESは、自然眼球運動の高忠実度追跡のためのニューロモルフィックイベントカメラを用いた新しいアプローチである。
その結果,EyeTrAESの瞳孔追跡精度は6+%向上し,IoU=92%,IoU=32%向上した。
頑健なユーザ認証のために,短期瞳孔運動学の特徴ベクトルを用いて,ユーザ当たりの軽量なランダムフォレスト分類器を訓練する。
- 参考スコア(独自算出の注目度): 2.9795443606634917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Eye-tracking technology has gained significant attention in recent years due to its wide range of applications in human-computer interaction, virtual and augmented reality, and wearable health. Traditional RGB camera-based eye-tracking systems often struggle with poor temporal resolution and computational constraints, limiting their effectiveness in capturing rapid eye movements. To address these limitations, we propose EyeTrAES, a novel approach using neuromorphic event cameras for high-fidelity tracking of natural pupillary movement that shows significant kinematic variance. One of EyeTrAES's highlights is the use of a novel adaptive windowing/slicing algorithm that ensures just the right amount of descriptive asynchronous event data accumulation within an event frame, across a wide range of eye movement patterns. EyeTrAES then applies lightweight image processing functions over accumulated event frames from just a single eye to perform pupil segmentation and tracking. We show that these methods boost pupil tracking fidelity by 6+%, achieving IoU~=92%, while incurring at least 3x lower latency than competing pure event-based eye tracking alternatives [38]. We additionally demonstrate that the microscopic pupillary motion captured by EyeTrAES exhibits distinctive variations across individuals and can thus serve as a biometric fingerprint. For robust user authentication, we train a lightweight per-user Random Forest classifier using a novel feature vector of short-term pupillary kinematics, comprising a sliding window of pupil (location, velocity, acceleration) triples. Experimental studies with two different datasets demonstrate that the EyeTrAES-based authentication technique can simultaneously achieve high authentication accuracy (~=0.82) and low processing latency (~=12ms), and significantly outperform multiple state-of-the-art competitive baselines.
- Abstract(参考訳): 近年のアイトラッキング技術は、人間とコンピュータのインタラクション、バーチャルと拡張現実、ウェアラブルの健康に幅広い応用があるため、注目されている。
従来のRGBカメラベースの視線追跡システムは、時間分解能の低下と計算上の制約に悩まされ、目の動きの速さを捉える効果が制限される。
これらの制約に対処するため,ニューロモルフィックイベントカメラを用いた自然眼球運動の高忠実度追跡のための新しいアプローチであるEyeTrAESを提案する。
EyeTrAESのハイライトのひとつは、さまざまなアイムーブメントパターンにわたって、イベントフレーム内に適切な量の記述可能な非同期イベントデータが蓄積されることを保証する、新しい適応ウィンドウ/スライシングアルゴリズムを使用することである。
EyeTrAESは、単一の目から蓄積したイベントフレームに軽量な画像処理機能を適用して、瞳のセグメンテーションと追跡を行う。
IoU~=92%の精度で瞳孔追跡率を6+%向上させるとともに, 競合する純粋な事象ベースの眼球追跡法[38]に比べて少なくとも3倍の遅延を生じることを示す。
また、EyeTrAESが捉えた瞳孔運動は個人によって異なる特徴を示し、生体認証指紋として機能することを示した。
頑健なユーザ認証のために、短時間の瞳孔運動学の特徴ベクトルを用いた軽量なユーザごとのランダムフォレスト分類器を訓練し、瞳孔(位置、速度、加速度)のスライドウィンドウを構成する。
2つの異なるデータセットを用いた実験により、EyeTrAESベースの認証技術は高い認証精度 (~=0.82) と低い処理遅延 (~=12ms) を同時に達成し、複数の最先端の競合ベースラインを著しく上回ることを示した。
関連論文リスト
- High-frequency near-eye ground truth for event-based eye tracking [3.5997913466753366]
イベントベースのアイトラッキングは、スマートアイウェア技術において、効率的で低消費電力のアイトラッキングのための有望なソリューションである。
イベントベースのデータアノテーションに特化して設計された半自動アノテーションパイプラインを導入する。
論文 参考訳(メタデータ) (2025-02-05T10:35:15Z) - A Framework for Pupil Tracking with Event Cameras [1.708806485130162]
サッカデス(Saccades)は、同時に起こる両眼の非常に速い動きである。
ササード中の眼の最高角速度は、ヒトでは700deg/sに達する。
標準的なディープラーニングアルゴリズムで容易に利用できるフレームとしてイベントを提示する。
論文 参考訳(メタデータ) (2024-07-23T17:32:02Z) - Apprenticeship-Inspired Elegance: Synergistic Knowledge Distillation Empowers Spiking Neural Networks for Efficient Single-Eye Emotion Recognition [53.359383163184425]
本稿では, 効率的な単一眼球運動認識タスクに適した, マルチモーダル・シナジスティック知識蒸留方式を提案する。
この方法では、軽量で単調な学生スパイクニューラルネットワーク(SNN)が、イベントフレームマルチモーダル教師ネットワークから豊富な知識を抽出することができる。
論文 参考訳(メタデータ) (2024-06-20T07:24:47Z) - MambaPupil: Bidirectional Selective Recurrent model for Event-based Eye tracking [50.26836546224782]
事象に基づく視線追跡は、高時間分解能と低冗長性で非常に有望である。
点眼、固定、ササード、スムーズな追跡を含む眼球運動パターンの多様性と急激さは、眼球運動の局所化に重要な課題を提起する。
本稿では、文脈時空間情報を完全に活用するための双方向の長期シーケンスモデリングと時間変化状態選択機構を提案する。
論文 参考訳(メタデータ) (2024-04-18T11:09:25Z) - Multimodal Adaptive Fusion of Face and Gait Features using Keyless
attention based Deep Neural Networks for Human Identification [67.64124512185087]
歩行のような軟式生体認証は、人物認識や再識別といった監視作業において顔に広く使われている。
本稿では,キーレス注意深層ニューラルネットワークを活用することで,歩行と顔のバイオメトリック・キューを動的に組み込むための適応型マルチバイオメトリック・フュージョン戦略を提案する。
論文 参考訳(メタデータ) (2023-03-24T05:28:35Z) - Recurrent Vision Transformers for Object Detection with Event Cameras [62.27246562304705]
本稿では,イベントカメラを用いた物体検出のための新しいバックボーンであるリカレントビジョントランス (RVT) を提案する。
RVTは、イベントベースのオブジェクト検出で最先端のパフォーマンスに到達するために、ゼロからトレーニングすることができる。
私たちの研究は、イベントベースのビジョンを超えた研究に役立ち得る効果的なデザイン選択に、新たな洞察をもたらします。
論文 参考訳(メタデータ) (2022-12-11T20:28:59Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - MTCD: Cataract Detection via Near Infrared Eye Images [69.62768493464053]
白内障は一般的な眼疾患であり、盲目や視力障害の主な原因の1つである。
近赤外画像を用いた白内障検出のための新しいアルゴリズムを提案する。
深層学習に基づくアイセグメンテーションとマルチタスクネットワーク分類ネットワークについて述べる。
論文 参考訳(メタデータ) (2021-10-06T08:10:28Z) - Eye Know You: Metric Learning for End-to-end Biometric Authentication
Using Eye Movements from a Longitudinal Dataset [4.511561231517167]
本稿では,ユーザの眼球運動を認証するための畳み込みニューラルネットワークを提案する。
ネットワークは、確立されたメトリック学習損失関数、多相性損失で訓練される。
目の動きは、3年後のテンプレートの老化に対して非常に弾力性があります。
論文 参考訳(メタデータ) (2021-04-21T12:21:28Z) - $pi_t$- Enhancing the Precision of Eye Tracking using Iris Feature
Motion Vectors [2.5889737226898437]
近年,虹彩の特徴の追跡により,新しい高精度眼球追跡法が実証されている。
時間的ドリフト、瞬きを追跡できないこと、動きのぼやけの存在下でのテクスチャの一致が失われることに悩まされる。
アイリステクスチャと瞳孔の両端から得られる情報を最適に組み合わせることで,これらの問題に対処する新しい方法論を提示する。
論文 参考訳(メタデータ) (2020-09-20T04:57:12Z) - Differential Privacy for Eye Tracking with Temporal Correlations [30.44437258959343]
VRやARメガネなどのヘッドマウントディスプレイは、すでに統合されたアイトラッキングによって市場に出回っている。
眼球運動特性には生体情報が含まれているため、プライバシー上の懸念を適切に扱う必要がある。
本稿では、眼球運動特徴データの統計にさらなる適応を図るために、新しい変換符号化に基づく差分プライバシー機構を提案する。
論文 参考訳(メタデータ) (2020-02-20T19:01:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。