論文の概要: High-frequency near-eye ground truth for event-based eye tracking
- arxiv url: http://arxiv.org/abs/2502.03057v1
- Date: Wed, 05 Feb 2025 10:35:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:27:23.732426
- Title: High-frequency near-eye ground truth for event-based eye tracking
- Title(参考訳): 事象に基づく視線追跡のための高周波近眼地上真理
- Authors: Andrea Simpsi, Andrea Aspesi, Simone Mentasti, Luca Merigo, Tommaso Ongarello, Matteo Matteucci,
- Abstract要約: イベントベースのアイトラッキングは、スマートアイウェア技術において、効率的で低消費電力のアイトラッキングのための有望なソリューションである。
イベントベースのデータアノテーションに特化して設計された半自動アノテーションパイプラインを導入する。
- 参考スコア(独自算出の注目度): 3.5997913466753366
- License:
- Abstract: Event-based eye tracking is a promising solution for efficient and low-power eye tracking in smart eyewear technologies. However, the novelty of event-based sensors has resulted in a limited number of available datasets, particularly those with eye-level annotations, crucial for algorithm validation and deep-learning training. This paper addresses this gap by presenting an improved version of a popular event-based eye-tracking dataset. We introduce a semi-automatic annotation pipeline specifically designed for event-based data annotation. Additionally, we provide the scientific community with the computed annotations for pupil detection at 200Hz.
- Abstract(参考訳): イベントベースのアイトラッキングは、スマートアイウェア技術において、効率的で低消費電力のアイトラッキングのための有望なソリューションである。
しかし、イベントベースのセンサーが新しくなったことで、利用可能なデータセットは限られている。
本稿では、一般的なイベントベースの視線追跡データセットの改良版を提示することで、このギャップに対処する。
イベントベースのデータアノテーションに特化して設計された半自動アノテーションパイプラインを導入する。
さらに,200Hzの瞳孔検出用アノテーションを科学コミュニティに提供する。
関連論文リスト
- EyeTrAES: Fine-grained, Low-Latency Eye Tracking via Adaptive Event Slicing [2.9795443606634917]
EyeTrAESは、自然眼球運動の高忠実度追跡のためのニューロモルフィックイベントカメラを用いた新しいアプローチである。
その結果,EyeTrAESの瞳孔追跡精度は6+%向上し,IoU=92%,IoU=32%向上した。
頑健なユーザ認証のために,短期瞳孔運動学の特徴ベクトルを用いて,ユーザ当たりの軽量なランダムフォレスト分類器を訓練する。
論文 参考訳(メタデータ) (2024-09-27T15:06:05Z) - Using Deep Learning to Increase Eye-Tracking Robustness, Accuracy, and Precision in Virtual Reality [2.2639735235640015]
この研究は、目の特徴追跡のための現代の機械学習(ML)に基づくいくつかの手法の影響を客観的に評価する。
メトリックには、視線推定の精度と精度、およびドロップアウト率が含まれる。
論文 参考訳(メタデータ) (2024-03-28T18:43:25Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Object-centric Cross-modal Feature Distillation for Event-based Object
Detection [87.50272918262361]
RGB検出器は、イベントデータのばらつきと視覚的詳細の欠如により、イベントベースの検出器よりも優れている。
これら2つのモード間の性能ギャップを縮めるための新しい知識蒸留手法を開発した。
対象中心蒸留により,イベントベースの学生物体検出装置の性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-11-09T16:33:08Z) - 3ET: Efficient Event-based Eye Tracking using a Change-Based ConvLSTM
Network [12.697820427228573]
本稿では、イベントベースの視線追跡のためのスパースチェンジベース Congenerational Long ShortTerm Memory (CB-ConvLSTM) モデルを提案する。
私たちは、従来のフレームベースのカメラよりも、網膜にインスパイアされたイベントカメラ、低遅延応答とスパース出力ストリームの利点を活用しています。
論文 参考訳(メタデータ) (2023-08-22T20:24:24Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - Bayesian Eye Tracking [63.21413628808946]
モデルに基づく視線追跡は、目の特徴検出エラーの影響を受けやすい。
モデルベースアイトラッキングのためのベイズフレームワークを提案する。
提案手法は,最先端のモデルベースおよび学習ベースの手法と比較して,一般化能力の大幅な向上を示す。
論文 参考訳(メタデータ) (2021-06-25T02:08:03Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。