論文の概要: An End-to-End Review of Gaze Estimation and its Interactive Applications
on Handheld Mobile Devices
- arxiv url: http://arxiv.org/abs/2307.00122v1
- Date: Fri, 30 Jun 2023 20:26:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 18:03:54.859300
- Title: An End-to-End Review of Gaze Estimation and its Interactive Applications
on Handheld Mobile Devices
- Title(参考訳): 携帯端末における視線推定と対話的応用のエンド・ツー・エンドレビュー
- Authors: Yaxiong Lei, Shijing He, Mohamed Khamis and Juan Ye
- Abstract要約: 近年,携帯端末上では,視線を単一あるいは相補的な相互作用のモダリティとして活用する対話システムが増えてきている。
本研究の目的は,視線センサから視線推定,深層学習技術,対話的アプリケーションまで,この領域におけるエンドツーエンドの全体像を提示することにある。
- 参考スコア(独自算出の注目度): 15.102260054654923
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years we have witnessed an increasing number of interactive systems
on handheld mobile devices which utilise gaze as a single or complementary
interaction modality. This trend is driven by the enhanced computational power
of these devices, higher resolution and capacity of their cameras, and improved
gaze estimation accuracy obtained from advanced machine learning techniques,
especially in deep learning. As the literature is fast progressing, there is a
pressing need to review the state of the art, delineate the boundary, and
identify the key research challenges and opportunities in gaze estimation and
interaction. This paper aims to serve this purpose by presenting an end-to-end
holistic view in this area, from gaze capturing sensors, to gaze estimation
workflows, to deep learning techniques, and to gaze interactive applications.
- Abstract(参考訳): 近年,携帯端末上では,視線を単一あるいは相補的な相互作用のモダリティとして活用する対話システムが増えてきている。
この傾向は、これらのデバイスの計算能力の向上、高分解能とカメラのキャパシティ、高度な機械学習技術、特にディープラーニングから得られる視線推定精度の向上によってもたらされる。
文献が急速に進歩しているため、芸術の状態をレビューし、境界線を明確にし、推定と相互作用を見つめる上で重要な研究課題と機会を特定する必要がある。
本稿では,この領域において,視線センサから視線推定ワークフロー,深層学習技術,視線対話型アプリケーションまで,エンドツーエンドの全体像を提示することで,この目的を達成することを目的とする。
関連論文リスト
- Efficient Human Pose Estimation: Leveraging Advanced Techniques with MediaPipe [5.439359582541082]
本研究では,MediaPipeフレームワークを用いた人間のポーズ推定の大幅な向上について述べる。
この研究は精度、計算効率、リアルタイム処理能力の改善に焦点を当てている。
この進歩は、拡張現実、スポーツ分析、ヘルスケアに幅広く応用されている。
論文 参考訳(メタデータ) (2024-06-21T21:00:45Z) - I-MPN: Inductive Message Passing Network for Efficient Human-in-the-Loop Annotation of Mobile Eye Tracking Data [4.487146086221174]
本稿では,移動眼球追跡設定における物体の自動認識のための新しい人間中心学習アルゴリズムを提案する。
提案手法は,オブジェクト検出器と空間的関係を考慮した誘導型メッセージパッシングネットワーク(I-MPN)をシームレスに統合し,ノードプロファイル情報を活用し,オブジェクト相関を捉える。
論文 参考訳(メタデータ) (2024-06-10T13:08:31Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Gaze-guided Hand-Object Interaction Synthesis: Dataset and Method [63.49140028965778]
本稿では,視線,手,物間相互作用の3次元モデリングを同時に行う最初のデータセットであるGazeHOIを紹介する。
これらの課題に対処するため,GHO-Diffusion という手動物体間相互作用拡散モデルを提案する。
また, GHO拡散のサンプリング段階におけるHOI-Manifold Guidanceを導入し, 生成した動きのきめ細かい制御を可能にする。
論文 参考訳(メタデータ) (2024-03-24T14:24:13Z) - Low-cost Geometry-based Eye Gaze Detection using Facial Landmarks
Generated through Deep Learning [0.0937465283958018]
我々は、新しい顔のランドマーク検出ニューラルネットワークを利用して、顔と虹彩の正確な安定な3Dランドマークを生成する。
本手法は,1.9度未満の角度誤差で視線を予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-31T05:45:22Z) - Voila-A: Aligning Vision-Language Models with User's Gaze Attention [56.755993500556734]
視覚言語モデル(VLM)を導くために,人間の注意の代用として視線情報を導入する。
本稿では,視線アライメントのための新しいアプローチであるVoila-Aを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:34:01Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Non-contact Real time Eye Gaze Mapping System Based on Deep
Convolutional Neural Network [0.0]
実環境に適用可能な非接触視線マッピングシステムを提案する。
本稿では、GIST Gazeマッピングデータセットを紹介し、GIST Gazeマッピングを学習し、評価するために作成されたGIST Gazeマッピングデータセットについて紹介する。
論文 参考訳(メタデータ) (2020-09-10T02:37:37Z) - Automated analysis of eye-tracker-based human-human interaction studies [2.433293618209319]
本稿では,移動眼球追跡データの自動解析に最先端のコンピュータビジョンアルゴリズムが用いられているかを検討する。
本稿では,人間の対面インタラクションにおける移動眼球追跡記録に焦点をあてる。
この単一パイプラインフレームワークを使用することで、現場での作業よりも正確かつ高速な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-09T10:00:03Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。