論文の概要: EyeTheia: A Lightweight and Accessible Eye-Tracking Toolbox
- arxiv url: http://arxiv.org/abs/2601.06279v1
- Date: Fri, 09 Jan 2026 19:49:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.726929
- Title: EyeTheia: A Lightweight and Accessible Eye-Tracking Toolbox
- Title(参考訳): EyeTheia:軽量でアクセシブルなEye-Trackingツールボックス
- Authors: Stevenson Pather, Niels Martignène, Arnaud Bugnet, Fouad Boutaleb, Fabien D'Hondt, Deise Santana Maia,
- Abstract要約: EyeTheiaは、Webカメラによる視線推定のための軽量でオープンなディープラーニングパイプラインである。
標準のラップトップウェブカメラのみを使用してリアルタイムの視線追跡を可能にする。
MediaPipeベースのランドマーク抽出と、iTrackerにインスパイアされた畳み込みニューラルネットワークと、オプションのユーザ固有の微調整を組み合わせたものだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce EyeTheia, a lightweight and open deep learning pipeline for webcam-based gaze estimation, designed for browser-based experimental platforms and real-world cognitive and clinical research. EyeTheia enables real-time gaze tracking using only a standard laptop webcam, combining MediaPipe-based landmark extraction with a convolutional neural network inspired by iTracker and optional user-specific fine-tuning. We investigate two complementary strategies: adapting a model pretrained on mobile data and training the same architecture from scratch on a desktop-oriented dataset. Validation results on MPIIFaceGaze show comparable performance between both approaches prior to calibration, while lightweight user-specific fine-tuning consistently reduces gaze prediction error. We further evaluate EyeTheia in a realistic Dot-Probe task and compare it to the commercial webcam-based tracker SeeSo SDK. Results indicate strong agreement in left-right gaze allocation during stimulus presentation, despite higher temporal variability. Overall, EyeTheia provides a transparent and extensible solution for low-cost gaze tracking, suitable for scalable and reproducible experimental and clinical studies. The code, trained models, and experimental materials are publicly available.
- Abstract(参考訳): 本稿では,Webカメラによる視線推定のための軽量でオープンなディープラーニングパイプラインであるEyeTheiaを紹介した。
EyeTheiaは、MediaPipeベースのランドマーク抽出と、iTrackerにインスパイアされた畳み込みニューラルネットワークと、オプションのユーザ固有の微調整を組み合わせた、標準的なラップトップWebカメラのみを使用したリアルタイムの視線追跡を可能にする。
モバイルデータに事前トレーニングされたモデルを適用することと,デスクトップ指向のデータセット上で,同じアーキテクチャをゼロからトレーニングする,という2つの補完戦略について検討する。
MPIIFaceGazeの検証結果は、キャリブレーション前の両方のアプローチで同等の性能を示し、軽量なユーザ固有の微調整は、常に視線予測誤差を減少させる。
さらに,現実的なDot-ProbeタスクでEyeTheiaを評価し,市販のWebカメラトラッカーであるSeeeSo SDKと比較した。
その結果,時間的変動が高いにもかかわらず,刺激提示時の左右の視線偏差は強い一致を示した。
全体として、EyeTheiaは、スケーラブルで再現可能な実験的および臨床的研究に適した、低コストの視線追跡のための透明で拡張可能なソリューションを提供する。
コード、訓練されたモデル、実験材料が公開されている。
関連論文リスト
- GazeTrack: High-Precision Eye Tracking Based on Regularization and Spatial Computing [2.4294291235324867]
我々は、ガゼコレクションフレームワークを設計し、高精度機器を用いて、最初の正確なベンチマークデータセットであるGazeTrackを収集する。
本稿では,オープンソースのデータセット上での瞳孔の嵌合とトレーニングを制約する新しい形状誤差正規化手法を提案する。
また、GazeTrackデータセット上の視線ベクトルを正確に予測するために、紙展開に似た新しい座標変換法を考案した。
論文 参考訳(メタデータ) (2025-11-27T16:41:32Z) - GazeProphetV2: Head-Movement-Based Gaze Prediction Enabling Efficient Foveated Rendering on Mobile VR [0.0]
本稿では,時間的視線パターン,頭部運動データ,視覚シーン情報を組み合わせたVR視線予測へのマルチモーダルアプローチを提案する。
22のVRシーンと5.3Mの視線サンプルにまたがるデータセットによる評価は、モダリティを組み合わせる際の予測精度の改善を示している。
クロスシーンの一般化テストは、予測された視線軌跡における93.1%の検証精度と時間的整合性を示す。
論文 参考訳(メタデータ) (2025-11-25T06:55:39Z) - GazeProphet: Software-Only Gaze Prediction for VR Foveated Rendering [0.0]
ファブリケートレンダリングは、バーチャルリアリティーアプリケーションにおける計算要求を大幅に減少させる。
現在のアプローチは高価なハードウェアベースのアイトラッキングシステムを必要とする。
本稿では,VR環境における視線位置を予測するためのソフトウェアのみのアプローチであるGazeProphetを提案する。
論文 参考訳(メタデータ) (2025-08-19T06:09:23Z) - From Sight to Insight: Unleashing Eye-Tracking in Weakly Supervised Video Salient Object Detection [60.11169426478452]
本稿では,弱い監督下での健全な物体の検出を支援するために,固定情報を導入することを目的とする。
特徴学習過程における位置と意味のガイダンスを提供するために,位置と意味の埋め込み (PSE) モジュールを提案する。
Intra-Inter Mixed Contrastive (MCII)モデルは、弱い監督下での時間的モデリング能力を改善する。
論文 参考訳(メタデータ) (2025-06-30T05:01:40Z) - Top-Down Compression: Revisit Efficient Vision Token Projection for Visual Instruction Tuning [70.57180215148125]
ビジュアルインストラクションチューニングは、大きな言語モデルで視覚世界を理解できるようにすることを目的としている。
既存の手法は、精度と効率の間の難解なトレードオフに悩まされることが多い。
LLaVA-Meteorは,コア情報を妥協することなく,視覚トークンを戦略的に圧縮する手法である。
論文 参考訳(メタデータ) (2025-05-17T10:22:29Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Bayesian Eye Tracking [63.21413628808946]
モデルに基づく視線追跡は、目の特徴検出エラーの影響を受けやすい。
モデルベースアイトラッキングのためのベイズフレームワークを提案する。
提案手法は,最先端のモデルベースおよび学習ベースの手法と比較して,一般化能力の大幅な向上を示す。
論文 参考訳(メタデータ) (2021-06-25T02:08:03Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。