論文の概要: A deep learning approach to track eye movements based on events
- arxiv url: http://arxiv.org/abs/2508.04827v1
- Date: Wed, 06 Aug 2025 19:12:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 21:11:55.64056
- Title: A deep learning approach to track eye movements based on events
- Title(参考訳): 事象に基づく眼球運動追跡のための深層学習手法
- Authors: Chirag Seth, Divya Naiken, Keyan Lin,
- Abstract要約: 本研究は、過去の研究を活用して、特定の事象の目の動きを正確に追跡することの課題に対処する。
我々の主な目的は、イベントカメラからの入力を用いて、アイセンターの位置(x, y)を特定することである。
我々の究極のゴールは、人間の注意を予測するためのディープラーニング手法を用いた解釈可能で費用対効果の高いアルゴリズムを開発することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research project addresses the challenge of accurately tracking eye movements during specific events by leveraging previous research. Given the rapid movements of human eyes, which can reach speeds of 300{\deg}/s, precise eye tracking typically requires expensive and high-speed cameras. Our primary objective is to locate the eye center position (x, y) using inputs from an event camera. Eye movement analysis has extensive applications in consumer electronics, especially in VR and AR product development. Therefore, our ultimate goal is to develop an interpretable and cost-effective algorithm using deep learning methods to predict human attention, thereby improving device comfort and enhancing overall user experience. To achieve this goal, we explored various approaches, with the CNN\_LSTM model proving most effective, achieving approximately 81\% accuracy. Additionally, we propose future work focusing on Layer-wise Relevance Propagation (LRP) to further enhance the model's interpretability and predictive performance.
- Abstract(参考訳): 本研究は、過去の研究を活用して、特定の事象の目の動きを正確に追跡することの課題に対処する。
人間の目の動きが300{\deg}/sに達すると、正確な視線追跡は高価で高速なカメラを必要とする。
我々の主な目的は、イベントカメラからの入力を用いて、アイセンターの位置(x, y)を特定することである。
アイムーブメント分析は消費者電子製品、特にVRやAR製品開発に広く応用されている。
そこで本研究の目標は,人間の注意力を予測する深層学習手法を用いた解釈可能で費用対効果の高いアルゴリズムの開発であり,デバイス快適性の向上とユーザエクスペリエンス全体の向上である。
この目的を達成するために,CNN\_LSTMモデルを用いて様々な手法を探索し,その精度を81倍に向上させた。
さらに,レイヤーワイド・レバレンス・プロパゲーション(LRP)に着目し,モデルの解釈可能性と予測性能をさらに向上する今後の課題を提案する。
関連論文リスト
- Exploring Temporal Dynamics in Event-based Eye Tracker [3.3325719644030016]
アイトラッキングは、特にAR、VR、XRといったウェアラブルデバイスにおいて、人間とコンピュータのインタラクションにとって重要な技術である。
フレームベース画像センサを用いた高速かつ高精度なアイトラッキングの実現は、時間分解能の制限により制限される。
TDTrackerは、時間的ダイナミクスを徹底的にモデル化することで、目の動きを素早く捉える効果的なアイトラッキングフレームワークである。
論文 参考訳(メタデータ) (2025-03-31T04:57:13Z) - A Cross-Scene Benchmark for Open-World Drone Active Tracking [54.235808061746525]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATと呼ばれるオープンワールドドローンアクティブトラッキングのためのクロスシーンクロスドメインベンチマークを提案する。
また、R-VATと呼ばれる強化学習に基づくドローン追跡手法を提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - E-Motion: Future Motion Simulation via Event Sequence Diffusion [86.80533612211502]
イベントベースのセンサーは、これまで達成できなかった詳細と精度で将来の動きを予測するユニークな機会を提供する可能性がある。
本稿では,映像拡散モデルの強力な学習能力とイベントカメラのリッチな動作情報とを,モーションシミュレーションフレームワークとして統合することを提案する。
本研究は,コンピュータビジョンシステムの解釈能力と予測精度の向上に向けた今後の研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2024-10-11T09:19:23Z) - A Framework for Pupil Tracking with Event Cameras [1.708806485130162]
サッカデス(Saccades)は、同時に起こる両眼の非常に速い動きである。
ササード中の眼の最高角速度は、ヒトでは700deg/sに達する。
標準的なディープラーニングアルゴリズムで容易に利用できるフレームとしてイベントを提示する。
論文 参考訳(メタデータ) (2024-07-23T17:32:02Z) - Using Deep Learning to Increase Eye-Tracking Robustness, Accuracy, and Precision in Virtual Reality [2.2639735235640015]
この研究は、目の特徴追跡のための現代の機械学習(ML)に基づくいくつかの手法の影響を客観的に評価する。
メトリックには、視線推定の精度と精度、およびドロップアウト率が含まれる。
論文 参考訳(メタデータ) (2024-03-28T18:43:25Z) - Open Gaze: Open Source eye tracker for smartphone devices using Deep Learning [0.0]
本稿では,GooglePaperが提案する方法論をエミュレートした,スマートフォンベースのガウントラッカーのオープンソース実装について述べる。
機械学習技術の統合により、スマートフォンにネイティブな正確な視線追跡ソリューションを公開する。
本研究は眼球運動研究を顕著に増幅する本質的な可能性を示すものである。
論文 参考訳(メタデータ) (2023-08-25T17:10:22Z) - A Real-time Human Pose Estimation Approach for Optimal Sensor Placement
in Sensor-based Human Activity Recognition [63.26015736148707]
本稿では,人間の行動認識に最適なセンサ配置の課題を解決するための新しい手法を提案する。
得られた骨格データは、最適なセンサ位置を特定するためのユニークな戦略を提供する。
本研究は,センサ配置の視覚的手法が従来のディープラーニング手法と同等の結果をもたらすことを示唆している。
論文 参考訳(メタデータ) (2023-07-06T10:38:14Z) - CLERA: A Unified Model for Joint Cognitive Load and Eye Region Analysis
in the Wild [18.79132232751083]
目領域のダイナミックスをリアルタイムに分析することで、人間の視覚的注意の割り当てを監視し、精神状態を推定することができる。
共同学習フレームワークにおいて,正確なキーポイント検出と時間追跡を実現するCLERAを提案する。
また,共同瞳孔,眼開放性,ランドマークアノテーションを用いた30万人の顔の大規模データセットも導入した。
論文 参考訳(メタデータ) (2023-06-26T21:20:23Z) - Deep Learning for Event-based Vision: A Comprehensive Survey and Benchmarks [55.81577205593956]
イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの強度の変化を非同期に捉える。
深層学習(DL)はこの新興分野に導入され、その可能性のマイニングに活発な研究努力にインスピレーションを与えている。
論文 参考訳(メタデータ) (2023-02-17T14:19:28Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。