論文の概要: Open Gaze: Open Source eye tracker for smartphone devices using Deep
Learning
- arxiv url: http://arxiv.org/abs/2308.13495v2
- Date: Tue, 29 Aug 2023 09:01:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 11:00:44.322480
- Title: Open Gaze: Open Source eye tracker for smartphone devices using Deep
Learning
- Title(参考訳): Open Gaze:Deep Learningを使ったスマートフォンデバイス用のオープンソースのアイトラッカー
- Authors: Sushmanth reddy, Jyothi Swaroop Reddy
- Abstract要約: 本稿では,GooglePaperが提案する方法論をエミュレートした,スマートフォンベースのガウントラッカーのオープンソース実装について述べる。
機械学習技術の統合により、スマートフォンにネイティブな正確な視線追跡ソリューションを公開する。
本研究は眼球運動研究を顕著に増幅する本質的な可能性を示すものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Eye tracking has been a pivotal tool in diverse fields such as vision
research, language analysis, and usability assessment. The majority of prior
investigations, however, have concentrated on expansive desktop displays
employing specialized, costly eye tracking hardware that lacks scalability.
Remarkably little insight exists into ocular movement patterns on smartphones,
despite their widespread adoption and significant usage. In this manuscript, we
present an open-source implementation of a smartphone-based gaze tracker that
emulates the methodology proposed by a GooglePaper (whose source code remains
proprietary). Our focus is on attaining accuracy comparable to that attained
through the GooglePaper's methodology, without the necessity for supplementary
hardware. Through the integration of machine learning techniques, we unveil an
accurate eye tracking solution that is native to smartphones. Our approach
demonstrates precision akin to the state-of-the-art mobile eye trackers, which
are characterized by a cost that is two orders of magnitude higher. Leveraging
the vast MIT GazeCapture dataset, which is available through registration on
the dataset's website, we successfully replicate crucial findings from previous
studies concerning ocular motion behavior in oculomotor tasks and saliency
analyses during natural image observation. Furthermore, we emphasize the
applicability of smartphone-based gaze tracking in discerning reading
comprehension challenges. Our findings exhibit the inherent potential to
amplify eye movement research by significant proportions, accommodating
participation from thousands of subjects with explicit consent. This
scalability not only fosters advancements in vision research, but also extends
its benefits to domains such as accessibility enhancement and healthcare
applications.
- Abstract(参考訳): 視線追跡は視覚研究、言語分析、ユーザビリティ評価など様々な分野において重要なツールである。
しかし、以前の調査の大半は、拡張性に欠ける専用でコストのかかる視線追跡ハードウェアを使った、拡張性のあるデスクトップディスプレイに集中している。
スマートフォン上での眼球運動のパターンは、広く採用されているにもかかわらず、ほとんど見当たらない。
そこで本研究では,googlepaperが提案する手法を模倣したスマートフォン用視線追跡装置のオープンソース実装(ソースコードは引き続きプロプライエタリである)を提案する。
私たちの焦点は、補充ハードウェアを必要とせずに、GooglePaperの方法論によって達成された精度に匹敵する精度を達成することです。
機械学習技術の統合により,スマートフォンに固有な正確な視線追跡ソリューションを提示する。
提案手法は,2桁以上のコストを特徴とする,最先端の移動眼球追跡装置に類似した精度を実証する。
データセットのwebサイトに登録することで得られる膨大なmit gazecaptureデータセットを活用し,眼球運動行動および自然画像観察時の塩分分析に関するこれまでの研究から得られた重要な知見を再現することに成功した。
さらに,読解課題の認識におけるスマートフォンによる視線追跡の適用性を強調した。
本研究は, 眼球運動研究を顕著な割合で増幅し, 明示的な同意を得た数千人の被験者の参加を継続する本態性を示した。
このスケーラビリティはビジョン研究の進歩を促進するだけでなく、アクセシビリティ向上やヘルスケアアプリケーションといった領域にもそのメリットを広げます。
関連論文リスト
- Eye-tracked Virtual Reality: A Comprehensive Survey on Methods and
Privacy Challenges [33.50215933003216]
この調査は、仮想現実(VR)における視線追跡と、それらの可能性のプライバシーへの影響に焦点を当てている。
われわれは2012年から2022年にかけて、視線追跡、VR、プライバシー分野における主要な研究を最初に取り上げている。
我々は、視線に基づく認証と、個人のプライバシーと視線追跡データをVRで保存するための計算方法に焦点を当てる。
論文 参考訳(メタデータ) (2023-05-23T14:02:38Z) - Multimodal Adaptive Fusion of Face and Gait Features using Keyless
attention based Deep Neural Networks for Human Identification [67.64124512185087]
歩行のような軟式生体認証は、人物認識や再識別といった監視作業において顔に広く使われている。
本稿では,キーレス注意深層ニューラルネットワークを活用することで,歩行と顔のバイオメトリック・キューを動的に組み込むための適応型マルチバイオメトリック・フュージョン戦略を提案する。
論文 参考訳(メタデータ) (2023-03-24T05:28:35Z) - Towards Energy Efficient Mobile Eye Tracking for AR Glasses through
Optical Sensor Technology [1.52292571922932]
視線追跡は、ARメガネが最適化されたディスプレイ技術と視線に基づくインタラクションのコンセプトを通じてブレークスルーを達成するのを助ける重要な技術だ。
この論文は、ARメガネのエネルギー効率の高い移動眼球追跡に向けた科学的進歩に寄与する。
論文 参考訳(メタデータ) (2022-12-06T18:09:25Z) - Slippage-robust Gaze Tracking for Near-eye Display [14.038708833057534]
ヘッドマウントデバイス(HMD)のスリップは、視線追跡エラーを高くする。
球状眼球モデルに基づく近目表示のためのすべり面ローバストな視線追跡法を提案する。
論文 参考訳(メタデータ) (2022-10-20T23:47:56Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Do Pedestrians Pay Attention? Eye Contact Detection in the Wild [75.54077277681353]
都市環境では、人間は近くの人々との迅速かつ効率的なコミュニケーションのためにアイコンタクトに依存している。
本稿では,環境や歩行者距離を制御できない自動運転車の眼球接触検出,すなわち実世界のシナリオに着目した。
本稿では, セマンティックキーポイントを利用したアイコンタクト検出モデルを導入し, このハイレベルな表現が, 一般公開データセットJAADの最先端結果を実現することを示す。
ドメイン適応を研究するために、私たちは、野生のアイコンタクト検出のための大規模データセット、LOOKを作成しました。
論文 参考訳(メタデータ) (2021-12-08T10:21:28Z) - Onfocus Detection: Identifying Individual-Camera Eye Contact from
Unconstrained Images [81.64699115587167]
Onfocus Detectionは、カメラが捉えた個人の焦点がカメラにあるかどうかを特定することを目的としている。
OnFocus Detection In the Wild (OFDIW) と呼ばれる大規模なオンフォーカス検出データセットを構築しました。
本研究では,視線干渉推論ネットワーク (ECIIN) を用いた眼球深度検出モデルを提案する。
論文 参考訳(メタデータ) (2021-03-29T03:29:09Z) - Towards Hardware-Agnostic Gaze-Trackers [0.5512295869673146]
本稿では、制約付き視線追跡のための外観に基づく手法として、ディープニューラルネットワークアーキテクチャを提案する。
我々のシステムは、キャリブレーションやデバイス固有の微調整なしで、GazeCaptureデータセット上で1.8073cmの誤差を達成した。
論文 参考訳(メタデータ) (2020-10-11T00:53:57Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - Automated analysis of eye-tracker-based human-human interaction studies [2.433293618209319]
本稿では,移動眼球追跡データの自動解析に最先端のコンピュータビジョンアルゴリズムが用いられているかを検討する。
本稿では,人間の対面インタラクションにおける移動眼球追跡記録に焦点をあてる。
この単一パイプラインフレームワークを使用することで、現場での作業よりも正確かつ高速な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-09T10:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。