論文の概要: Event-Based Eye Tracking. 2025 Event-based Vision Workshop
- arxiv url: http://arxiv.org/abs/2504.18249v1
- Date: Fri, 25 Apr 2025 10:50:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.744738
- Title: Event-Based Eye Tracking. 2025 Event-based Vision Workshop
- Title(参考訳): 2025年イベントベースビジョンワークショップ
- Authors: Qinyu Chen, Chang Gao, Min Liu, Daniele Perrone, Yan Ru Pei, Zuowen Wang, Zhuo Zou, Shihang Tan, Tao Han, Guorui Lu, Zhen Xu, Junyuan Ding, Ziteng Wang, Zongwei Wu, Han Han, Yuliang Wu, Jinze Chen, Wei Zhai, Yang Cao, Zheng-jun Zha, Nuwan Bandara, Thivya Kandappu, Archan Misra, Xiaopeng Lin, Hongxiang Huang, Hongwei Ren, Bojun Cheng, Hoang M. Truong, Vinh-Thuan Ly, Huy G. Tran, Thuan-Phat Nguyen, Tram T. Doan,
- Abstract要約: この調査は、2025年のCVPRイベントベースのビジョンワークショップの一環として開催された、2025年のイベントベースのアイトラッキングチャレンジのレビューとなる。
今後のイベントベースの視線追跡研究を推進すべく、チームによる革新的な手法をレビューし、要約します。
- 参考スコア(独自算出の注目度): 47.79620756734669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This survey serves as a review for the 2025 Event-Based Eye Tracking Challenge organized as part of the 2025 CVPR event-based vision workshop. This challenge focuses on the task of predicting the pupil center by processing event camera recorded eye movement. We review and summarize the innovative methods from teams rank the top in the challenge to advance future event-based eye tracking research. In each method, accuracy, model size, and number of operations are reported. In this survey, we also discuss event-based eye tracking from the perspective of hardware design.
- Abstract(参考訳): この調査は、2025年のCVPRイベントベースのビジョンワークショップの一環として開催された、2025年のイベントベースのアイトラッキングチャレンジのレビューとなる。
本課題は, イベントカメラ記録眼球運動の処理により, 瞳孔中心を推定する作業に焦点をあてる。
今後のイベントベースの視線追跡研究を推進すべく、チームによる革新的な手法をレビューし、要約します。
それぞれの手法では、精度、モデルサイズ、演算回数が報告される。
本調査では,ハードウェア設計の観点からのイベントベースアイトラッキングについても論じる。
関連論文リスト
- NTIRE 2025 Challenge on Event-Based Image Deblurring: Methods and Results [162.7095344078484]
NTIRE 2025 : First Challenge on Event-based Image Deblurringについて概説する。
この課題の第一の目的は、高品質な画像の劣化を実現するイベントベースの手法を設計することである。
我々は、この課題がイベントベースの視覚研究のさらなる進歩を後押しすることを期待している。
論文 参考訳(メタデータ) (2025-04-16T18:06:16Z) - High-frequency near-eye ground truth for event-based eye tracking [3.5997913466753366]
イベントベースのアイトラッキングは、スマートアイウェア技術において、効率的で低消費電力のアイトラッキングのための有望なソリューションである。
イベントベースのデータアノテーションに特化して設計された半自動アノテーションパイプラインを導入する。
論文 参考訳(メタデータ) (2025-02-05T10:35:15Z) - V3Det Challenge 2024 on Vast Vocabulary and Open Vocabulary Object Detection: Methods and Results [142.5704093410454]
V3Det Challenge 2024は、オブジェクト検出研究の境界を推し進めることを目的としている。
Vast Vocabulary Object DetectionとOpen Vocabulary Object Detectionの2つのトラックで構成されている。
我々は,広い語彙とオープン語彙のオブジェクト検出において,今後の研究の方向性を刺激することを目指している。
論文 参考訳(メタデータ) (2024-06-17T16:58:51Z) - Event-Based Eye Tracking. AIS 2024 Challenge Survey [73.41168445057629]
AIS 2024 Event-Based Eye Tracking (EET) Challengeをレビューする。
この課題の課題は、イベントカメラで記録された眼球運動の処理と瞳孔中心の予測である。
この課題は、タスクの精度と効率のトレードオフを達成するために、イベントカメラによる効率的なアイトラッキングを強調している。
論文 参考訳(メタデータ) (2024-04-17T21:53:01Z) - OpenSUN3D: 1st Workshop Challenge on Open-Vocabulary 3D Scene Understanding [96.69806736025248]
本報告では,ICCV 2023とともに開かれたOpenSUN3D Workshop on Open-Vocabulary 3D Scene Understandingにおける課題の概要を紹介する。
論文 参考訳(メタデータ) (2024-02-23T13:39:59Z) - VisDrone-CC2020: The Vision Meets Drone Crowd Counting Challenge Results [186.53282837739548]
私たちは大規模なデータセットを収集し、Vision Meets Drone Crowd Counting Challenge (VisDrone-CC 2020)を組織します。
収集されたデータセットは、トレーニング用の2460ドルの画像と、テスト用の900ドルの画像を含む3360ドルの画像で構成されている。
評価結果を詳細に分析し,課題を結論付ける。
論文 参考訳(メタデータ) (2021-07-19T11:48:29Z) - Woodscape Fisheye Semantic Segmentation for Autonomous Driving -- CVPR
2021 OmniCV Workshop Challenge [2.3469719108972504]
WoodScape fisheye semantic segmentation Challenge for autonomous drivingはCVPR 2021 Workshop on Omnidirectional Computer Visionの一部として開催された。
71のグローバルチームが参加し、合計で395の応募があった。
トップチームは、ResNet-50バックボーンを使用したベースラインのPSPNetよりも、平均IoUと精度が大幅に向上した。
論文 参考訳(メタデータ) (2021-07-17T14:32:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。