論文の概要: Event Based, Near Eye Gaze Tracking Beyond 10,000Hz
- arxiv url: http://arxiv.org/abs/2004.03577v3
- Date: Mon, 8 Aug 2022 16:52:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 00:42:23.552510
- Title: Event Based, Near Eye Gaze Tracking Beyond 10,000Hz
- Title(参考訳): イベントベースで1万Hzを超える近視線追跡
- Authors: Anastasios N. Angelopoulos, Julien N.P. Martel, Amit P.S. Kohli, Jorg
Conradt, Gordon Wetzstein
- Abstract要約: 我々は,1万Hzを超える更新率を有するハイブリッドフレームイベントベースの近目視追跡システムを提案する。
我々のシステムは、定期的にサンプリングされたフレームと適応的にサンプリングされたイベントを同時に取得する新興イベントカメラの上に構築されている。
我々は,仮想現実と拡張現実のための,次世代の超低遅延視線コンテンツレンダリングおよび表示技術の実現を期待している。
- 参考スコア(独自算出の注目度): 41.23347304960948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The cameras in modern gaze-tracking systems suffer from fundamental bandwidth
and power limitations, constraining data acquisition speed to 300 Hz
realistically. This obstructs the use of mobile eye trackers to perform, e.g.,
low latency predictive rendering, or to study quick and subtle eye motions like
microsaccades using head-mounted devices in the wild. Here, we propose a hybrid
frame-event-based near-eye gaze tracking system offering update rates beyond
10,000 Hz with an accuracy that matches that of high-end desktop-mounted
commercial trackers when evaluated in the same conditions. Our system builds on
emerging event cameras that simultaneously acquire regularly sampled frames and
adaptively sampled events. We develop an online 2D pupil fitting method that
updates a parametric model every one or few events. Moreover, we propose a
polynomial regressor for estimating the point of gaze from the parametric pupil
model in real time. Using the first event-based gaze dataset, available at
https://github.com/aangelopoulos/event_based_gaze_tracking , we demonstrate
that our system achieves accuracies of 0.45 degrees--1.75 degrees for fields of
view from 45 degrees to 98 degrees. With this technology, we hope to enable a
new generation of ultra-low-latency gaze-contingent rendering and display
techniques for virtual and augmented reality.
- Abstract(参考訳): 現代の視線追跡システムのカメラは基本的な帯域幅と電力制限に悩まされ、データ取得速度を300hzまでリアルに制限している。
これは、例えば低レイテンシの予測レンダリングや、野生のヘッドマウントデバイスを使用してマイクロサケードのような素早く微妙な眼の動きを研究するために、モバイルアイトラッカーの使用を妨げる。
本稿では,1万hzを超える更新レートと,同一条件下で評価した場合のハイエンドデスクトップ搭載商用トラッカーと一致する精度を提供する,ハイブリッドフレームイベント型近眼視線追跡システムを提案する。
我々のシステムは、定期的にサンプリングされたフレームと適応的にサンプリングされたイベントを同時に取得する新興イベントカメラの上に構築されている。
1回または数回のイベント毎にパラメトリックモデルを更新するオンライン2次元瞳孔フィッティング手法を開発した。
さらに,パラメトリックな瞳孔モデルから視線点をリアルタイムに推定する多項式回帰器を提案する。
イベントベースガゼデータセットをhttps://github.com/aangelopoulos/event_based_gaze_trackingで公開し,45度から98度の視野で0.45°--1.75°の精度を達成することを示す。
この技術により、仮想現実および拡張現実のための、次世代の超低遅延視線コンテンツレンダリングおよび表示技術が実現されることを願っている。
関連論文リスト
- EyeTrAES: Fine-grained, Low-Latency Eye Tracking via Adaptive Event Slicing [2.9795443606634917]
EyeTrAESは、自然眼球運動の高忠実度追跡のためのニューロモルフィックイベントカメラを用いた新しいアプローチである。
その結果,EyeTrAESの瞳孔追跡精度は6+%向上し,IoU=92%,IoU=32%向上した。
頑健なユーザ認証のために,短期瞳孔運動学の特徴ベクトルを用いて,ユーザ当たりの軽量なランダムフォレスト分類器を訓練する。
論文 参考訳(メタデータ) (2024-09-27T15:06:05Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - A Flexible-Frame-Rate Vision-Aided Inertial Object Tracking System for
Mobile Devices [3.4836209951879957]
本稿では,モバイルデバイス用フレキシブルフレームレートオブジェクトポーズ推定とトラッキングシステムを提案する。
高速トラッキングのためにクライアント側で慣性計測ユニット(IMU)ポーズ伝搬を行い、サーバ側でRGB画像ベースの3Dポーズ推定を行う。
我々のシステムは120FPSまでのフレキシブルフレームレートをサポートし、ローエンドデバイス上での高精度かつリアルタイムなトラッキングを保証する。
論文 参考訳(メタデータ) (2022-10-22T15:26:50Z) - Event-Based high-speed low-latency fiducial marker tracking [15.052022635853799]
本稿では,リアルタイム,低レイテンシ,自由度6自由度ポーズ推定のためのエンドツーエンドパイプラインを提案する。
イベントベースのセンサを高速に利用して空間変換を直接改善する。
このアプローチでは,CPUリソースのみに依存しながら,最大156kHzのレートでポーズ推定を行うことができる。
論文 参考訳(メタデータ) (2021-10-12T08:34:31Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。