論文の概要: WEBEYETRACK: Scalable Eye-Tracking for the Browser via On-Device Few-Shot Personalization
- arxiv url: http://arxiv.org/abs/2508.19544v1
- Date: Wed, 27 Aug 2025 03:38:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.479452
- Title: WEBEYETRACK: Scalable Eye-Tracking for the Browser via On-Device Few-Shot Personalization
- Title(参考訳): WEBEYETRACK:オンデバイスFew-Shotパーソナライゼーションによるブラウザ用スケーラブルアイトラッキング
- Authors: Eduardo Davalos, Yike Zhang, Namrata Srivastava, Yashvitha Thatigotla, Jorge A. Salas, Sara McFadden, Sun-Joo Cho, Amanda Goodwin, Ashwin TS, Gautam Biswas,
- Abstract要約: We bEyeTrackは軽量なSOTA視線推定モデルをブラウザに直接統合するフレームワークです。
モデルベースの頭部ポーズ推定と、デバイス上でのいくつかのショット学習と、9つのキャリブレーションサンプルが組み込まれている。
WebEyeTrackは新しいユーザーに適応し、GazeCaptureでエラーマージンが2.32cm、iPhone 14で2.4ミリ秒のリアルタイム推論速度でSOTAのパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 3.884714448890651
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With advancements in AI, new gaze estimation methods are exceeding state-of-the-art (SOTA) benchmarks, but their real-world application reveals a gap with commercial eye-tracking solutions. Factors like model size, inference time, and privacy often go unaddressed. Meanwhile, webcam-based eye-tracking methods lack sufficient accuracy, in particular due to head movement. To tackle these issues, we introduce We bEyeTrack, a framework that integrates lightweight SOTA gaze estimation models directly in the browser. It incorporates model-based head pose estimation and on-device few-shot learning with as few as nine calibration samples (k < 9). WebEyeTrack adapts to new users, achieving SOTA performance with an error margin of 2.32 cm on GazeCapture and real-time inference speeds of 2.4 milliseconds on an iPhone 14. Our open-source code is available at https://github.com/RedForestAi/WebEyeTrack.
- Abstract(参考訳): AIの進歩に伴い、新しい視線推定手法は最先端(SOTA)ベンチマークを上回っている。
モデルのサイズ、推測時間、プライバシといった要因は、しばしば不適切なものになる。
一方、ウェブカメラによる視線追跡手法は、特に頭部の動きにより、十分な精度を欠いている。
このような問題に対処するため,我々は,軽量なSOTA視線推定モデルをブラウザに直接組み込むフレームワークであるWe bEyeTrackを紹介した。
モデルベースの頭部ポーズ推定と、デバイス上でのいくつかのショット学習と、9つのキャリブレーションサンプル(k < 9)が組み込まれている。
WebEyeTrackは新しいユーザーに適応し、GazeCaptureでエラーマージンが2.32cm、iPhone 14で2.4ミリ秒のリアルタイム推論速度でSOTAのパフォーマンスを達成する。
私たちのオープンソースコードはhttps://github.com/RedForestAi/WebEyeTrack.comで公開されています。
関連論文リスト
- HopTrack: A Real-time Multi-Object Tracking System for Embedded Devices [11.615446679072932]
本稿では,組み込みデバイスに適したリアルタイムマルチオブジェクトトラッキングシステムHopTrackを紹介する。
最高のハイエンドGPU修正ベースラインByte(Embed)と比較して、HopTrackはNVIDIA AGX Xavierで最大39.29の処理速度を実現している。
論文 参考訳(メタデータ) (2024-11-01T14:13:53Z) - FACET: Fast and Accurate Event-Based Eye Tracking Using Ellipse Modeling for Extended Reality [14.120171971211777]
イベントカメラは、高時間分解能と低消費電力のため、有望な代替手段を提供する。
FACET(Fast and Accurate Event-based Eye Tracking)は、イベントデータから瞳孔パラメータを直接出力するエンドツーエンドのニューラルネットワークである。
改良されたEV-Eyeテストセットでは、FACETは平均瞳孔中心誤差0.20ピクセル、推論時間0.53msを達成する。
論文 参考訳(メタデータ) (2024-09-23T22:31:38Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird's-Eye View [56.77287041917277]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションに不可欠なことを証明している。
本稿では,単純で効果的なベースライン手法であるBEVTrackを提案する。
Bird's-Eye View (BEV) における目標運動を推定して追跡を行うことにより、BEVTrackは、ネットワーク設計、トレーニング目標、トラッキングパイプラインなど、様々な側面から驚くほどの単純さを示しながら、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - SqueezerFaceNet: Reducing a Small Face Recognition CNN Even More Via
Filter Pruning [55.84746218227712]
我々は,100万パラメータ未満の軽量顔認識ネットワークであるSqueezerFaceNetを開発した。
性能を損なうことなく、さらに(最大40%)削減できることを示す。
論文 参考訳(メタデータ) (2023-07-20T08:38:50Z) - One Eye is All You Need: Lightweight Ensembles for Gaze Estimation with
Single Encoders [0.0]
本稿では,ResNet と Inception モデルアーキテクチャを実装した視線推定モデルを提案する。
軽量アーキテクチャを用いることで,モデルパラメータ数が非常に少ないGazeCaptureデータセット上で高い性能を実現する。
また,テストセットの右目画像の誤差も有意に小さく,将来の視線推定ツールの設計において重要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-11-22T01:12:31Z) - 2nd Place Solution for Waymo Open Dataset Challenge - Real-time 2D
Object Detection [26.086623067939605]
本稿では,画像から2次元物体を検出するリアルタイム手法を提案する。
我々は、加速度RTを活用して、検出パイプラインの推論時間を最適化する。
我々のフレームワークはNvidia Tesla V100 GPU上で45.8ms/frameのレイテンシを実現する。
論文 参考訳(メタデータ) (2021-06-16T11:32:03Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - SqueezeFacePoseNet: Lightweight Face Verification Across Different Poses for Mobile Platforms [44.78440647722169]
顔認識技術は、モバイルデバイスでカメラが利用できることを考えると、信頼性が高く堅牢なユーザー認証を提供することができる。
ディープ畳み込みニューラルネットワークは、多くの正確な顔認証アーキテクチャをもたらすが、その典型的なサイズ(数百メガバイト)は、ダウンロード可能なモバイルアプリケーションに組み込むことができない。
我々は,より大規模なモデルと比較して,十分な精度で動作可能な数メガバイトの軽量な顔認識ネットワークを開発した。
論文 参考訳(メタデータ) (2020-07-16T19:02:38Z) - Event Based, Near Eye Gaze Tracking Beyond 10,000Hz [41.23347304960948]
我々は,1万Hzを超える更新率を有するハイブリッドフレームイベントベースの近目視追跡システムを提案する。
我々のシステムは、定期的にサンプリングされたフレームと適応的にサンプリングされたイベントを同時に取得する新興イベントカメラの上に構築されている。
我々は,仮想現実と拡張現実のための,次世代の超低遅延視線コンテンツレンダリングおよび表示技術の実現を期待している。
論文 参考訳(メタデータ) (2020-04-07T17:57:18Z) - Tracking Objects as Points [83.9217787335878]
同時に検出と追跡を同時に行うアルゴリズムは,最先端技術よりもシンプルで,高速で,高精度である。
トラッカーであるCenterTrackは、前のフレームから一対のイメージと検出に検出モデルを適用します。
CenterTrackはシンプルで、オンライン(未来を覗くことはない)で、リアルタイムだ。
論文 参考訳(メタデータ) (2020-04-02T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。