論文の概要: An End-to-End Review of Gaze Estimation and its Interactive Applications
on Handheld Mobile Devices
- arxiv url: http://arxiv.org/abs/2307.00122v1
- Date: Fri, 30 Jun 2023 20:26:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 18:03:54.859300
- Title: An End-to-End Review of Gaze Estimation and its Interactive Applications
on Handheld Mobile Devices
- Title(参考訳): 携帯端末における視線推定と対話的応用のエンド・ツー・エンドレビュー
- Authors: Yaxiong Lei, Shijing He, Mohamed Khamis and Juan Ye
- Abstract要約: 近年,携帯端末上では,視線を単一あるいは相補的な相互作用のモダリティとして活用する対話システムが増えてきている。
本研究の目的は,視線センサから視線推定,深層学習技術,対話的アプリケーションまで,この領域におけるエンドツーエンドの全体像を提示することにある。
- 参考スコア(独自算出の注目度): 15.102260054654923
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years we have witnessed an increasing number of interactive systems
on handheld mobile devices which utilise gaze as a single or complementary
interaction modality. This trend is driven by the enhanced computational power
of these devices, higher resolution and capacity of their cameras, and improved
gaze estimation accuracy obtained from advanced machine learning techniques,
especially in deep learning. As the literature is fast progressing, there is a
pressing need to review the state of the art, delineate the boundary, and
identify the key research challenges and opportunities in gaze estimation and
interaction. This paper aims to serve this purpose by presenting an end-to-end
holistic view in this area, from gaze capturing sensors, to gaze estimation
workflows, to deep learning techniques, and to gaze interactive applications.
- Abstract(参考訳): 近年,携帯端末上では,視線を単一あるいは相補的な相互作用のモダリティとして活用する対話システムが増えてきている。
この傾向は、これらのデバイスの計算能力の向上、高分解能とカメラのキャパシティ、高度な機械学習技術、特にディープラーニングから得られる視線推定精度の向上によってもたらされる。
文献が急速に進歩しているため、芸術の状態をレビューし、境界線を明確にし、推定と相互作用を見つめる上で重要な研究課題と機会を特定する必要がある。
本稿では,この領域において,視線センサから視線推定ワークフロー,深層学習技術,視線対話型アプリケーションまで,エンドツーエンドの全体像を提示することで,この目的を達成することを目的とする。
関連論文リスト
- Low-cost Geometry-based Eye Gaze Detection using Facial Landmarks
Generated through Deep Learning [0.0937465283958018]
我々は、新しい顔のランドマーク検出ニューラルネットワークを利用して、顔と虹彩の正確な安定な3Dランドマークを生成する。
本手法は,1.9度未満の角度誤差で視線を予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-31T05:45:22Z) - Voila-A: Aligning Vision-Language Models with User's Gaze Attention [56.755993500556734]
視覚言語モデル(VLM)を導くために,人間の注意の代用として視線情報を導入する。
本稿では,視線アライメントのための新しいアプローチであるVoila-Aを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:34:01Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - A Threefold Review on Deep Semantic Segmentation: Efficiency-oriented,
Temporal and Depth-aware design [77.34726150561087]
我々は、自動運転車のビジョンの文脈において、Deep Semanticの最も関連性があり最近の進歩について調査を行う。
私たちの主な目的は、それぞれの視点で直面している主要な方法、利点、制限、結果、課題に関する包括的な議論を提供することです。
論文 参考訳(メタデータ) (2023-03-08T01:29:55Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Continuous Human Action Recognition for Human-Machine Interaction: A
Review [39.593687054839265]
入力ビデオ内のアクションを認識することは難しいが、リアルタイムの人間と機械のインタラクションを必要とするアプリケーションに必要なタスクである。
我々は,ほとんどの最先端手法で使用される特徴抽出と学習戦略について述べる。
実世界のシナリオへのそのようなモデルの適用について検討し、いくつかの制限と研究の方向性について論じる。
論文 参考訳(メタデータ) (2022-02-26T09:25:44Z) - Deep Learning in Human Activity Recognition with Wearable Sensors: A
Review on Advances [8.642789007878479]
ディープラーニングは、モバイルおよびウェアラブルデバイスにおける人間の活動認識の境界を大きく押し上げている。
本稿では,ウェアラブルをベースとしたHARのためのディープラーニング手法を導入した既存の研究を体系的に分類し,要約する。
深層学習に基づくHARのための最先端フロンティアと今後の方向性も提示する。
論文 参考訳(メタデータ) (2021-10-31T07:16:23Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Non-contact Real time Eye Gaze Mapping System Based on Deep
Convolutional Neural Network [0.0]
実環境に適用可能な非接触視線マッピングシステムを提案する。
本稿では、GIST Gazeマッピングデータセットを紹介し、GIST Gazeマッピングを学習し、評価するために作成されたGIST Gazeマッピングデータセットについて紹介する。
論文 参考訳(メタデータ) (2020-09-10T02:37:37Z) - Automated analysis of eye-tracker-based human-human interaction studies [2.433293618209319]
本稿では,移動眼球追跡データの自動解析に最先端のコンピュータビジョンアルゴリズムが用いられているかを検討する。
本稿では,人間の対面インタラクションにおける移動眼球追跡記録に焦点をあてる。
この単一パイプラインフレームワークを使用することで、現場での作業よりも正確かつ高速な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-09T10:00:03Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。