論文の概要: JaneEye: A 12-nm 2K-FPS 18.9-$μ$J/Frame Event-based Eye Tracking Accelerator
- arxiv url: http://arxiv.org/abs/2510.01213v1
- Date: Thu, 18 Sep 2025 21:37:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 05:29:07.841743
- Title: JaneEye: A 12-nm 2K-FPS 18.9-$μ$J/Frame Event-based Eye Tracking Accelerator
- Title(参考訳): JaneEye: 12nm 2K-FPS 18.9-$μ$J/Frame Eventベースのアイトラッキングアクセラレータ
- Authors: Tao Han, Ang Li, Qinyu Chen, Chang Gao,
- Abstract要約: JaneEyeは、ウェアラブルデバイスのためのエネルギー効率の高いイベントベースのアイトラッキングハードウェアアクセラレータだ。
提案モデルでは,最大1250Hzのイベントフレームレートを持つ17.6Kパラメータのみを用いて,3ET+データセットの画素誤差2.45の高精度化を実現している。
12nm ASIC の実装は 400MHz で動作するため、エンドツーエンドのレイテンシは 0.5 ms で、エネルギー効率は 18.9$mu$J/frame である。
- 参考スコア(独自算出の注目度): 12.18562859126189
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Eye tracking has become a key technology for gaze-based interactions in Extended Reality (XR). However, conventional frame-based eye-tracking systems often fall short of XR's stringent requirements for high accuracy, low latency, and energy efficiency. Event cameras present a compelling alternative, offering ultra-high temporal resolution and low power consumption. In this paper, we present JaneEye, an energy-efficient event-based eye-tracking hardware accelerator designed specifically for wearable devices, leveraging sparse, high-temporal-resolution event data. We introduce an ultra-lightweight neural network architecture featuring a novel ConvJANET layer, which simplifies the traditional ConvLSTM by retaining only the forget gate, thereby halving computational complexity without sacrificing temporal modeling capability. Our proposed model achieves high accuracy with a pixel error of 2.45 on the 3ET+ dataset, using only 17.6K parameters, with up to 1250 Hz event frame rate. To further enhance hardware efficiency, we employ custom linear approximations of activation functions (hardsigmoid and hardtanh) and fixed-point quantization. Through software-hardware co-design, our 12-nm ASIC implementation operates at 400 MHz, delivering an end-to-end latency of 0.5 ms (equivalent to 2000 Frames Per Second (FPS)) at an energy efficiency of 18.9 $\mu$J/frame. JaneEye sets a new benchmark in low-power, high-performance eye-tracking solutions suitable for integration into next-generation XR wearables.
- Abstract(参考訳): 視線追跡は、拡張現実(XR)における視線に基づくインタラクションの鍵となる技術となっている。
しかしながら、従来のフレームベースのアイトラッキングシステムは、高い精度、低レイテンシ、エネルギー効率に対するXRの厳密な要求に満たないことが多い。
イベントカメラは、超高時間分解能と低消費電力を提供する魅力的な代替手段を提供する。
本稿では,ウェアラブルデバイスに特化して設計された,エネルギー効率の高いイベントベースのアイトラッキングハードウェアアクセラレータであるJaneEyeについて紹介する。
本稿では,新しいConvJANET層を特徴とする超軽量ニューラルネットワークアーキテクチャを提案する。
提案モデルでは,最大1250Hzのイベントフレームレートを持つ17.6Kパラメータのみを用いて,3ET+データセットの画素誤差2.45の高精度化を実現している。
ハードウェア効率をさらに高めるために、アクティベーション関数(ハードシグモノイドとハードタン)と固定点量子化のカスタム線形近似を用いる。
ソフトウェアハードウェアの共同設計を通じて、我々の12nmASIC実装は400MHzで動作し、0.5msのエンドツーエンドレイテンシ(FPS(2000 Frames Per Second)と同等の)を18.9$\mu$J/frameのエネルギー効率で提供する。
JaneEyeは新しいベンチマークを、次世代のXRウェアラブルとの統合に適した低消費電力で高性能なアイトラッキングソリューションで設定する。
関連論文リスト
- HOMI: Ultra-Fast EdgeAI platform for Event Cameras [1.9923531555025618]
イベントカメラは、非同期操作とスパースでイベント駆動の出力のため、エッジロボティクスアプリケーションに大きな利点をもたらす。
我々は、Xilinx Zynq UltraScale+MPSoC FPGAチップを備えたProphesee IMX636イベントセンサチップからなる、超低レイテンシでエンドツーエンドのエッジAIプラットフォームを提案する。
論文 参考訳(メタデータ) (2025-08-18T05:47:48Z) - EA: An Event Autoencoder for High-Speed Vision Sensing [0.9401004127785267]
イベントカメラは有望な代替手段を提供するが、スパースでノイズの多いイベントストリームによるオブジェクト検出には課題がある。
イベントデータを効率的に圧縮・再構成するイベントオートエンコーダアーキテクチャを提案する。
提案手法は, YOLO-v4モデルに匹敵する精度を達成し, パラメータを最大35.5倍に削減できることを示す。
論文 参考訳(メタデータ) (2025-07-09T00:21:15Z) - FAPNet: An Effective Frequency Adaptive Point-based Eye Tracker [0.6554326244334868]
イベントカメラは、視線追跡の領域における従来のカメラに代わるものだ。
既存のイベントベースの視線追跡ネットワークは、イベントにおける重要できめ細かい時間情報を無視する。
本稿では、ポイントクラウドをイベント表現として利用し、視線追跡タスクにおける事象の高時間分解能とスパース特性を利用する。
論文 参考訳(メタデータ) (2024-06-05T12:08:01Z) - Data-Model-Circuit Tri-Design for Ultra-Light Video Intelligence on Edge
Devices [90.30316433184414]
本稿では,HDビデオストリーム上での高スループット,低コスト,高精度MOTのためのデータモデル・ハードウエア・トリデザイン・フレームワークを提案する。
現状のMOTベースラインと比較して、我々の三設計アプローチは12.5倍の遅延低減、20.9倍のフレームレート改善、5.83倍の低消費電力、9.78倍のエネルギー効率を実現でき、精度は低下しない。
論文 参考訳(メタデータ) (2022-10-16T16:21:40Z) - LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics [45.666822327616046]
本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
論文 参考訳(メタデータ) (2022-09-28T12:55:35Z) - EfficientViT: Multi-Scale Linear Attention for High-Resolution Dense
Prediction [67.11722682878722]
この研究は、新しいマルチスケール線形注意を持つ高解像度ビジョンモデルのファミリーであるEfficientViTを提示する。
マルチスケール線形注意は,グローバルな受容場とマルチスケール学習を実現する。
EfficientViTは従来の最先端モデルよりも優れたパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2022-05-29T20:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。