論文の概要: Benefits of temporal information for appearance-based gaze estimation
- arxiv url: http://arxiv.org/abs/2005.11670v1
- Date: Sun, 24 May 2020 07:19:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 13:23:29.810533
- Title: Benefits of temporal information for appearance-based gaze estimation
- Title(参考訳): 外見に基づく視線推定における時間情報の有用性
- Authors: Cristina Palmero, Oleg V. Komogortsev, Sachin S. Talathi
- Abstract要約: 視線推定のための外見に基づくディープラーニングモデルの精度を高めるために,高解像度で高フレームレートのヘッドマウントバーチャルリアリティシステムを用いて撮影された眼画像の時間的シーケンスを活用できるかどうかを検討する。
その結果、特に視線垂直成分に対する時間情報の統計的に重要な利点が示された。
- 参考スコア(独自算出の注目度): 4.861060532123461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art appearance-based gaze estimation methods, usually based on
deep learning techniques, mainly rely on static features. However, temporal
trace of eye gaze contains useful information for estimating a given gaze
point. For example, approaches leveraging sequential eye gaze information when
applied to remote or low-resolution image scenarios with off-the-shelf cameras
are showing promising results. The magnitude of contribution from temporal gaze
trace is yet unclear for higher resolution/frame rate imaging systems, in which
more detailed information about an eye is captured. In this paper, we
investigate whether temporal sequences of eye images, captured using a
high-resolution, high-frame rate head-mounted virtual reality system, can be
leveraged to enhance the accuracy of an end-to-end appearance-based
deep-learning model for gaze estimation. Performance is compared against a
static-only version of the model. Results demonstrate statistically-significant
benefits of temporal information, particularly for the vertical component of
gaze.
- Abstract(参考訳): 最先端の外観に基づく視線推定法は、通常、ディープラーニング技術に基づくが、主に静的特徴に依存している。
しかし、視線の時間的トレースには、所定の視線を推定するための有用な情報が含まれている。
例えば、遠隔または低解像度の画像シナリオにオフザシェルフカメラで適用した場合、シーケンシャルな視線情報を活用するアプローチは、有望な結果を示している。
時間視線からの寄与の大きさは、高分解能/フレームレートイメージングシステムではまだ不明であり、眼に関するより詳細な情報が収集される。
本稿では,高解像度で高フレームレートのヘッドマウント型バーチャルリアリティシステムを用いて,視線推定のためのエンドツーエンドの外観ベースディープラーニングモデルの精度を高めるために,視線画像の時間的シーケンスを活用できるかどうかを検討する。
パフォーマンスは、モデルの静的のみのバージョンと比較される。
その結果、特に視線垂直成分に対する時間情報の統計的に重要な利点が示された。
関連論文リスト
- TPP-Gaze: Modelling Gaze Dynamics in Space and Time with Neural Temporal Point Processes [63.95928298690001]
ニューラル・テンポラル・ポイント・プロセス(TPP)に基づく新規かつ原則化されたスキャンパスダイナミクスのアプローチであるTPP-Gazeを提案する。
提案手法は,最先端手法と比較して総合的に優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-30T19:22:38Z) - Using Deep Learning to Increase Eye-Tracking Robustness, Accuracy, and Precision in Virtual Reality [2.2639735235640015]
この研究は、目の特徴追跡のための現代の機械学習(ML)に基づくいくつかの手法の影響を客観的に評価する。
メトリックには、視線推定の精度と精度、およびドロップアウト率が含まれる。
論文 参考訳(メタデータ) (2024-03-28T18:43:25Z) - TempSAL -- Uncovering Temporal Information for Deep Saliency Prediction [64.63645677568384]
本稿では,逐次時間間隔でサリエンシマップを出力する新たなサリエンシ予測モデルを提案する。
提案手法は,学習した時間マップを組み合わせることで,サリエンシ予測を局所的に調整する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2023-01-05T22:10:16Z) - LatentGaze: Cross-Domain Gaze Estimation through Gaze-Aware Analytic
Latent Code Manipulation [0.0]
本稿では,データ駆動型手法を応用した視線認識型解析操作手法を提案する。
GANベースのエンコーダジェネレータプロセスを利用することで、入力画像がターゲット領域からソース領域イメージにシフトし、視線推定器が十分に認識できる。
論文 参考訳(メタデータ) (2022-09-21T08:05:53Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Eye Gaze Estimation Model Analysis [2.4366811507669124]
本稿では、視線推定のための様々なモデルタイプについて論じ、非拘束環境における目印を用いた視線方向の予測結果を示す。
制約のない実世界の環境では、照明変更やその他の視覚的アーティファクトなどの要因により、最近の外観ベースの手法により、機能ベースの手法とモデルベースの手法が優れています。
論文 参考訳(メタデータ) (2022-07-28T20:40:03Z) - What Image Features Boost Housing Market Predictions? [81.32205133298254]
本稿では,予測アルゴリズムにおける効率的な数値包摂のための視覚特徴抽出手法を提案する。
本稿では,シャノンのエントロピー,重心計算,画像分割,畳み込みニューラルネットワークなどの手法について論じる。
ここで選択された40の画像特徴のセットは、かなりの量の予測能力を持ち、最も強力なメタデータ予測器よりも優れています。
論文 参考訳(メタデータ) (2021-07-15T06:32:10Z) - Bayesian Eye Tracking [63.21413628808946]
モデルに基づく視線追跡は、目の特徴検出エラーの影響を受けやすい。
モデルベースアイトラッキングのためのベイズフレームワークを提案する。
提案手法は,最先端のモデルベースおよび学習ベースの手法と比較して,一般化能力の大幅な向上を示す。
論文 参考訳(メタデータ) (2021-06-25T02:08:03Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。