論文の概要: Towards Hardware-Agnostic Gaze-Trackers
- arxiv url: http://arxiv.org/abs/2010.05123v1
- Date: Sun, 11 Oct 2020 00:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 12:39:38.994285
- Title: Towards Hardware-Agnostic Gaze-Trackers
- Title(参考訳): ハードウェア非依存型ガゼトラッカーを目指して
- Authors: Jatin Sharma and Jon Campbell and Pete Ansell and Jay Beavers and
Christopher O'Dowd
- Abstract要約: 本稿では、制約付き視線追跡のための外観に基づく手法として、ディープニューラルネットワークアーキテクチャを提案する。
我々のシステムは、キャリブレーションやデバイス固有の微調整なしで、GazeCaptureデータセット上で1.8073cmの誤差を達成した。
- 参考スコア(独自算出の注目度): 0.5512295869673146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaze-tracking is a novel way of interacting with computers which allows new
scenarios, such as enabling people with motor-neuron disabilities to control
their computers or doctors to interact with patient information without
touching screen or keyboard. Further, there are emerging applications of
gaze-tracking in interactive gaming, user experience research, human attention
analysis and behavioral studies. Accurate estimation of the gaze may involve
accounting for head-pose, head-position, eye rotation, distance from the object
as well as operating conditions such as illumination, occlusion, background
noise and various biological aspects of the user. Commercially available
gaze-trackers utilize specialized sensor assemblies that usually consist of an
infrared light source and camera. There are several challenges in the universal
proliferation of gaze-tracking as accessibility technologies, specifically its
affordability, reliability, and ease-of-use. In this paper, we try to address
these challenges through the development of a hardware-agnostic gaze-tracker.
We present a deep neural network architecture as an appearance-based method for
constrained gaze-tracking that utilizes facial imagery captured on an ordinary
RGB camera ubiquitous in all modern computing devices. Our system achieved an
error of 1.8073cm on GazeCapture dataset without any calibration or device
specific fine-tuning. This research shows promise that one day soon any
computer, tablet, or phone will be controllable using just your eyes due to the
prediction capabilities of deep neutral networks.
- Abstract(参考訳): 視線追跡(英: gaze-tracking)は、運動神経障害のある人が、コンピュータや医師がスクリーンやキーボードに触らずに患者情報と対話できるような、新しいシナリオを可能にするコンピュータとの対話方法である。
さらに,対話型ゲーム,ユーザエクスペリエンス研究,ヒューマンアテンション分析,行動研究における視線追跡の新たな応用がある。
視線の正確な推定には、頭部の位置、頭部の位置、眼球回転、物体からの距離、照明、咬合、背景雑音、およびユーザの様々な生物学的側面の操作条件などが含まれる。
市販の視線追跡装置は、通常は赤外線光源とカメラからなる特殊なセンサーアセンブリを使用する。
アクセシビリティ技術としての視線追跡の普遍的な普及には、その手頃さ、信頼性、使いやすさなど、いくつかの課題がある。
本稿では,ハードウェアに依存しない視線追跡装置の開発を通じて,これらの課題に対処する。
本稿では,一般のrgbカメラで撮影された顔画像を用いた視線追跡を,現代の全てのコンピュータデバイスで普及させた外観ベース手法として,ディープニューラルネットワークアーキテクチャを提案する。
我々のシステムは、キャリブレーションやデバイス固有の微調整なしで、GazeCaptureデータセット上で1.8073cmの誤差を達成した。
この研究は、いつかどんなコンピューター、タブレット、携帯電話でも、ディープニュートラルネットワークの予測能力によって、目だけで制御できるようになることを約束しています。
関連論文リスト
- Tri-Cam: Practical Eye Gaze Tracking via Camera Network [1.642094639107215]
本稿では,3つの安価なRGBウェブカメラを用いた,実践的なディープラーニングベースの視線追跡システムであるTri-Camを紹介する。
効率的なトレーニングのための分割ネットワーク構造と、分離された視線追跡タスクを処理するための指定されたネットワーク設計を備えている。
我々は、最先端の商用アイトラッカーであるTobiiに対するTri-Camの評価を行い、より広い自由移動領域をサポートしながら、同等の精度を実現した。
論文 参考訳(メタデータ) (2024-09-29T04:43:10Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Low-cost Geometry-based Eye Gaze Detection using Facial Landmarks
Generated through Deep Learning [0.0937465283958018]
我々は、新しい顔のランドマーク検出ニューラルネットワークを利用して、顔と虹彩の正確な安定な3Dランドマークを生成する。
本手法は,1.9度未満の角度誤差で視線を予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-31T05:45:22Z) - Open Gaze: Open Source eye tracker for smartphone devices using Deep Learning [0.0]
本稿では,GooglePaperが提案する方法論をエミュレートした,スマートフォンベースのガウントラッカーのオープンソース実装について述べる。
機械学習技術の統合により、スマートフォンにネイティブな正確な視線追跡ソリューションを公開する。
本研究は眼球運動研究を顕著に増幅する本質的な可能性を示すものである。
論文 参考訳(メタデータ) (2023-08-25T17:10:22Z) - Multimodal Adaptive Fusion of Face and Gait Features using Keyless
attention based Deep Neural Networks for Human Identification [67.64124512185087]
歩行のような軟式生体認証は、人物認識や再識別といった監視作業において顔に広く使われている。
本稿では,キーレス注意深層ニューラルネットワークを活用することで,歩行と顔のバイオメトリック・キューを動的に組み込むための適応型マルチバイオメトリック・フュージョン戦略を提案する。
論文 参考訳(メタデータ) (2023-03-24T05:28:35Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Unmasking Communication Partners: A Low-Cost AI Solution for Digitally
Removing Head-Mounted Displays in VR-Based Telepresence [62.997667081978825]
バーチャルリアリティ(VR)における対面会話は、被験者がヘッドマウントディスプレイ(HMD)を装着する際の課題である
過去の研究では、高コストハードウェアを用いた実験室環境では、VRで個人用アバターを用いた高忠実な顔再構成が可能であることが示されている。
我々は,オープンソース,フリーソフトウェア,安価なハードウェアのみを利用する,このタスクのための最初の低コストシステムを提案する。
論文 参考訳(メタデータ) (2020-11-06T23:17:12Z) - AEGIS: A real-time multimodal augmented reality computer vision based
system to assist facial expression recognition for individuals with autism
spectrum disorder [93.0013343535411]
本稿では,コンピュータビジョンと深部畳み込みニューラルネットワーク(CNN)を組み合わせたマルチモーダル拡張現実(AR)システムの開発について述べる。
提案システムはAIGISと呼ばれ,タブレット,スマートフォン,ビデオ会議システム,スマートグラスなど,さまざまなユーザデバイスにデプロイ可能な支援技術である。
我々は空間情報と時間情報の両方を活用して正確な表現予測を行い、それを対応する可視化に変換し、元のビデオフレーム上に描画する。
論文 参考訳(メタデータ) (2020-10-22T17:20:38Z) - Non-contact Real time Eye Gaze Mapping System Based on Deep
Convolutional Neural Network [0.0]
実環境に適用可能な非接触視線マッピングシステムを提案する。
本稿では、GIST Gazeマッピングデータセットを紹介し、GIST Gazeマッピングを学習し、評価するために作成されたGIST Gazeマッピングデータセットについて紹介する。
論文 参考訳(メタデータ) (2020-09-10T02:37:37Z) - Automated analysis of eye-tracker-based human-human interaction studies [2.433293618209319]
本稿では,移動眼球追跡データの自動解析に最先端のコンピュータビジョンアルゴリズムが用いられているかを検討する。
本稿では,人間の対面インタラクションにおける移動眼球追跡記録に焦点をあてる。
この単一パイプラインフレームワークを使用することで、現場での作業よりも正確かつ高速な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-09T10:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。