論文の概要: A Framework for Pupil Tracking with Event Cameras
- arxiv url: http://arxiv.org/abs/2407.16665v2
- Date: Mon, 7 Oct 2024 09:46:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 15:34:26.103525
- Title: A Framework for Pupil Tracking with Event Cameras
- Title(参考訳): イベントカメラを用いたプルトラッキングフレームワーク
- Authors: Khadija Iddrisu, Waseem Shariff, Suzanne Little,
- Abstract要約: サッカデス(Saccades)は、同時に起こる両眼の非常に速い動きである。
ササード中の眼の最高角速度は、ヒトでは700deg/sに達する。
標準的なディープラーニングアルゴリズムで容易に利用できるフレームとしてイベントを提示する。
- 参考スコア(独自算出の注目度): 1.708806485130162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Saccades are extremely rapid movements of both eyes that occur simultaneously, typically observed when an individual shifts their focus from one object to another. These movements are among the swiftest produced by humans and possess the potential to achieve velocities greater than that of blinks. The peak angular speed of the eye during a saccade can reach as high as 700{\deg}/s in humans, especially during larger saccades that cover a visual angle of 25{\deg}. Previous research has demonstrated encouraging outcomes in comprehending neurological conditions through the study of saccades. A necessary step in saccade detection involves accurately identifying the precise location of the pupil within the eye, from which additional information such as gaze angles can be inferred. Conventional frame-based cameras often struggle with the high temporal precision necessary for tracking very fast movements, resulting in motion blur and latency issues. Event cameras, on the other hand, offer a promising alternative by recording changes in the visual scene asynchronously and providing high temporal resolution and low latency. By bridging the gap between traditional computer vision and event-based vision, we present events as frames that can be readily utilized by standard deep learning algorithms. This approach harnesses YOLOv8, a state-of-the-art object detection technology, to process these frames for pupil tracking using the publicly accessible Ev-Eye dataset. Experimental results demonstrate the framework's effectiveness, highlighting its potential applications in neuroscience, ophthalmology, and human-computer interaction.
- Abstract(参考訳): サッカデス(英: Saccades)は、通常、個人が焦点をある物体から別の物体に移すときに観察される、両眼の非常に速い動きである。
これらの運動は、人間が生み出す最も急激な動きの一つであり、瞬きよりも速い速度を達成できる可能性を持っている。
ササード中の眼の最高角速度は、人間では700{\deg}/sに達し、特に25{\deg}の視角をカバーする大きなササードでは、最大で700{\deg}/sに達する。
これまでの研究では、サッケードの研究を通じて、神経疾患の理解が促進されることが示されている。
ササード検出に必要なステップは、目の内にある瞳孔の正確な位置を正確に特定することであり、そこから視線角などの追加情報を推測することができる。
従来のフレームベースのカメラは、非常に速い動きを追跡するのに必要な高い時間的精度に苦しむことが多く、動きのぼやけや遅延の問題を引き起こす。
一方、イベントカメラは、視覚シーンの変更を非同期に記録し、高時間分解能と低レイテンシを提供することで、有望な代替手段を提供する。
従来のコンピュータビジョンとイベントベースビジョンのギャップを埋めることで、標準的なディープラーニングアルゴリズムで簡単に利用できるフレームとしてイベントを提示する。
このアプローチでは、最先端のオブジェクト検出技術であるYOLOv8を使用して、一般にアクセス可能なEv-Eyeデータセットを使用して、これらのフレームを瞳孔追跡のために処理する。
実験の結果、このフレームワークの有効性が示され、神経科学、眼科、人間とコンピュータの相互作用における潜在的な応用が強調された。
関連論文リスト
- EyeTrAES: Fine-grained, Low-Latency Eye Tracking via Adaptive Event Slicing [2.9795443606634917]
EyeTrAESは、自然眼球運動の高忠実度追跡のためのニューロモルフィックイベントカメラを用いた新しいアプローチである。
その結果,EyeTrAESの瞳孔追跡精度は6+%向上し,IoU=92%,IoU=32%向上した。
頑健なユーザ認証のために,短期瞳孔運動学の特徴ベクトルを用いて,ユーザ当たりの軽量なランダムフォレスト分類器を訓練する。
論文 参考訳(メタデータ) (2024-09-27T15:06:05Z) - Computer Vision for Primate Behavior Analysis in the Wild [61.08941894580172]
ビデオに基づく行動監視は、動物の認知と行動を研究する方法を変える大きな可能性を秘めている。
今でも、エキサイティングな見通しと、今日実際に達成できるものの間には、かなり大きなギャップがある。
論文 参考訳(メタデータ) (2024-01-29T18:59:56Z) - In the Blink of an Eye: Event-based Emotion Recognition [44.12621619057609]
本研究では、ウェアラブルな単眼感情認識装置と、感情の部分的な観察から感情を認識するリアルタイムアプローチを導入する。
我々の手法の核心は、バイオインスパイアされたイベントベースのカメラと、新しく設計された軽量スパイキングアイ感情ネットワーク(SEEN)である。
論文 参考訳(メタデータ) (2023-10-06T06:33:20Z) - Deep Learning for Event-based Vision: A Comprehensive Survey and Benchmarks [55.81577205593956]
イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの強度の変化を非同期に捉える。
深層学習(DL)はこの新興分野に導入され、その可能性のマイニングに活発な研究努力にインスピレーションを与えている。
論文 参考訳(メタデータ) (2023-02-17T14:19:28Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - Head and eye egocentric gesture recognition for human-robot interaction
using eyewear cameras [4.344337854565144]
この研究は人間のジェスチャー認識の問題に対処する。
特に、頭部と眼のジェスチャーに焦点を合わせ、アイウェアカメラを用いた自我中心(ファーストパーソナリティ)の視点を採用する。
2つの時間的粒度で動作する動きに基づく認識手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T13:26:05Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - GazeMAE: General Representations of Eye Movements using a Micro-Macro
Autoencoder [0.0]
本研究では,視線行動における重要なニュアンスを刺激非依存に保った眼球運動の抽象表現を提案する。
眼球運動を生の位置と速度の信号とみなし、深部側頭葉畳み込みオートエンコーダを訓練する。
オートエンコーダは、目の動きの速い特徴と遅い特徴に対応するマイクロスケールとマクロスケールの表現を学習する。
論文 参考訳(メタデータ) (2020-09-05T02:13:42Z) - Real-Time Face and Landmark Localization for Eyeblink Detection [1.617280000789628]
顔と目印検出アルゴリズムを慎重に組み合わせて、完全に自動化された視線追跡を実現している。
実験により,1フレームあたり0.533ミリ秒の全体ランタイム応用が明らかになった。
これは、シーケンシャルな実装よりも高速で、1,101$times$である。
論文 参考訳(メタデータ) (2020-06-01T09:46:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。