論文の概要: Evaluating Sensitivity Parameters in Smartphone-Based Gaze Estimation: A Comparative Study of Appearance-Based and Infrared Eye Trackers
- arxiv url: http://arxiv.org/abs/2506.11932v3
- Date: Sat, 21 Jun 2025 16:46:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 17:01:35.838432
- Title: Evaluating Sensitivity Parameters in Smartphone-Based Gaze Estimation: A Comparative Study of Appearance-Based and Infrared Eye Trackers
- Title(参考訳): スマートフォンによる視線推定における感度パラメータの評価:外見に基づく視線追跡と赤外視線追跡の比較検討
- Authors: Nishan Gunawardena, Gough Yumu Lui, Bahman Javadi, Jeewani Anupama Ginige,
- Abstract要約: 本研究では,スマートフォンを用いた深層学習眼球追跡アルゴリズムの評価を行い,その性能を市販の赤外線眼球追跡装置と比較した。
本研究の目的は,現実的なモバイル利用条件下での外観に基づく視線推定の実現可能性を検討することである。
- 参考スコア(独自算出の注目度): 2.9123921488295768
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study evaluates a smartphone-based, deep-learning eye-tracking algorithm by comparing its performance against a commercial infrared-based eye tracker, the Tobii Pro Nano. The aim is to investigate the feasibility of appearance-based gaze estimation under realistic mobile usage conditions. Key sensitivity factors, including age, gender, vision correction, lighting conditions, device type, and head position, were systematically analysed. The appearance-based algorithm integrates a lightweight convolutional neural network (MobileNet-V3) with a recurrent structure (Long Short-Term Memory) to predict gaze coordinates from grayscale facial images. Gaze data were collected from 51 participants using dynamic visual stimuli, and accuracy was measured using Euclidean distance. The deep learning model produced a mean error of 17.76 mm, compared to 16.53 mm for the Tobii Pro Nano. While overall accuracy differences were small, the deep learning-based method was more sensitive to factors such as lighting, vision correction, and age, with higher failure rates observed under low-light conditions among participants using glasses and in older age groups. Device-specific and positional factors also influenced tracking performance. These results highlight the potential of appearance-based approaches for mobile eye tracking and offer a reference framework for evaluating gaze estimation systems across varied usage conditions.
- Abstract(参考訳): 本研究では,スマートフォンを用いた深層学習眼球追跡アルゴリズムについて,市販の赤外線アイトラッカーであるTobii Pro Nanoと比較して評価した。
本研究の目的は,現実的なモバイル利用条件下での外観に基づく視線推定の実現可能性を検討することである。
年齢,性別,視力補正,照明条件,装置タイプ,頭部位置などの主要感度因子を系統的に分析した。
外観に基づくアルゴリズムは、軽量畳み込みニューラルネットワーク(MobileNet-V3)と繰り返し構造(Long Short-Term Memory)を統合し、グレースケールの顔画像から視線座標を予測する。
動的視覚刺激を用いて51人の被験者から視線データを収集し,ユークリッド距離を用いて精度を測定した。
ディープラーニングモデルの平均誤差は17.76mmで、Tobii Pro Nanoは16.53mmであった。
総合的な精度差は小さいが, 深層学習に基づく手法は, 照明, 視力補正, 年齢などの要因に敏感であり, 眼鏡群と高齢者群では, 低照度条件下で高い故障率が観察された。
デバイス固有の要因と位置要因も追跡性能に影響を及ぼした。
これらの結果は、モバイルアイトラッキングにおける外見に基づくアプローチの可能性を強調し、様々な使用条件で視線推定システムを評価するための参照フレームワークを提供する。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Using Deep Learning to Increase Eye-Tracking Robustness, Accuracy, and Precision in Virtual Reality [2.2639735235640015]
この研究は、目の特徴追跡のための現代の機械学習(ML)に基づくいくつかの手法の影響を客観的に評価する。
メトリックには、視線推定の精度と精度、およびドロップアウト率が含まれる。
論文 参考訳(メタデータ) (2024-03-28T18:43:25Z) - PhyOT: Physics-informed object tracking in surveillance cameras [0.2633434651741688]
深層ニューラルネットワークをセンサとして概念化するハイブリッドモデル(PhyOT)について検討する。
実験では,3つのニューラルネットワーク,動作位置,間接速度,加速度推定をそれぞれ組み合わせて,その定式化を2つのベンチマークデータセットで評価した。
結果は、我々のPhyOTが最先端のディープニューラルネットワークが失敗する極端な条件下で物体を追跡することを示唆している。
論文 参考訳(メタデータ) (2023-12-14T04:15:55Z) - Remote Bio-Sensing: Open Source Benchmark Framework for Fair Evaluation
of rPPG [2.82697733014759]
r(pg photoplethysmography)は、カメラで捉えたヘモグロビンの光吸収特性を用いてBVP(Blood Volume Pulse)を測定し、分析する技術である。
本研究は,多種多様なデータセットを対象とした様々なrベンチマーク手法の評価を行い,妥当性評価と比較を行うためのフレームワークを提供することを目的とする。
論文 参考訳(メタデータ) (2023-07-24T09:35:47Z) - Multimodal Adaptive Fusion of Face and Gait Features using Keyless
attention based Deep Neural Networks for Human Identification [67.64124512185087]
歩行のような軟式生体認証は、人物認識や再識別といった監視作業において顔に広く使われている。
本稿では,キーレス注意深層ニューラルネットワークを活用することで,歩行と顔のバイオメトリック・キューを動的に組み込むための適応型マルチバイオメトリック・フュージョン戦略を提案する。
論文 参考訳(メタデータ) (2023-03-24T05:28:35Z) - ColorSense: A Study on Color Vision in Machine Visual Recognition [57.916512479603064]
視覚認識ベンチマークから,前景や背景色ラベルの非自明なアノテーション110,000点を収集する。
色識別のレベルがマシン認識モデルの性能に与える影響を実証することにより、データセットの使用を検証した。
その結果,分類や局所化などの物体認識タスクは,色覚バイアスの影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2022-12-16T18:51:41Z) - Near-infrared and visible-light periocular recognition with Gabor
features using frequency-adaptive automatic eye detection [69.35569554213679]
近視認識は、制御の少ないシナリオにおいて、顔や虹彩の堅牢性の増大が要求されるため、近年注目を集めている。
本稿では,複雑な対称性フィルタに基づく眼球検出システムを提案する。
このシステムはレチノトピックサンプリンググリッドとガボルスペクトル分解に基づく近視アルゴリズムの入力として用いられる。
論文 参考訳(メタデータ) (2022-11-10T13:04:03Z) - An Efficient Point of Gaze Estimator for Low-Resolution Imaging Systems
Using Extracted Ocular Features Based Neural Architecture [2.8728982844941187]
本稿では、画面上の11.31degの視覚範囲に表示される9つの位置で、ユーザの視線を予測するためのニューラルネットワークベースのアーキテクチャを提案する。
視線追跡システムは身体障害者が組み込むことができ、限られた通信手段しか持たない人には最適である。
論文 参考訳(メタデータ) (2021-06-09T14:35:55Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - MLGaze: Machine Learning-Based Analysis of Gaze Error Patterns in
Consumer Eye Tracking Systems [0.0]
本研究では,市販眼球追跡装置が生成する視線誤差パターンを機械学習アルゴリズムを用いて検討した。
異なる誤差源が視線データ特性に与える影響は、視線検査やデータ統計によってほとんど区別できないが、機械学習モデルは、異なる誤差源の影響を特定し、これらの条件による視線エラーレベルの変動を予測することに成功している。
論文 参考訳(メタデータ) (2020-05-07T23:07:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。