論文の概要: Quantifying the Impact of Motion on 2D Gaze Estimation in Real-World Mobile Interactions
- arxiv url: http://arxiv.org/abs/2502.10570v1
- Date: Fri, 14 Feb 2025 21:44:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:09:18.280687
- Title: Quantifying the Impact of Motion on 2D Gaze Estimation in Real-World Mobile Interactions
- Title(参考訳): 実世界のモバイルインタラクションにおける2次元視線推定における運動の影響の定量化
- Authors: Yaxiong Lei, Yuheng Wang, Fergus Buchanan, Mingyue Zhao, Yusuke Sugano, Shijing He, Mohamed Khamis, Juan Ye,
- Abstract要約: 本稿では,ユーザの移動度と行動がモバイル視線追跡精度に与える影響を実証的に示す。
頭部距離、頭部ポーズ、装置の向きは、正確性に影響を与える重要な要因である。
発見は、より堅牢で適応的な視線追跡システムの必要性を強調している。
- 参考スコア(独自算出の注目度): 18.294511216241805
- License:
- Abstract: Mobile gaze tracking involves inferring a user's gaze point or direction on a mobile device's screen from facial images captured by the device's front camera. While this technology inspires an increasing number of gaze-interaction applications, achieving consistent accuracy remains challenging due to dynamic user-device spatial relationships and varied motion conditions inherent in mobile contexts. This paper provides empirical evidence on how user mobility and behaviour affect mobile gaze tracking accuracy. We conduct two user studies collecting behaviour and gaze data under various motion conditions - from lying to maze navigation - and during different interaction tasks. Quantitative analysis has revealed behavioural regularities among daily tasks and identified head distance, head pose, and device orientation as key factors affecting accuracy, with errors increasing by up to 48.91% in dynamic conditions compared to static ones. These findings highlight the need for more robust, adaptive eye-tracking systems that account for head movements and device deflection to maintain accuracy across diverse mobile contexts.
- Abstract(参考訳): モバイルの視線追跡では、デバイスの前面カメラが捉えた顔画像から、モバイルデバイスの画面上のユーザの視線ポイントまたは方向を推測する。
この技術は、視線相互作用アプリケーションの増加を誘発するが、動的なユーザデバイス空間関係と移動環境に固有のさまざまな動作条件により、一貫した精度を達成することは依然として困難である。
本稿では,ユーザの移動度と行動がモバイル視線追跡精度に与える影響を実証的に示す。
本研究では,行動の収集と,嘘から迷路のナビゲーションまで,さまざまな動作条件下でのデータの視認に関する2つのユーザ研究を行った。
定量的分析により、日常のタスクの行動規則性が明らかにされ、頭部距離、頭部ポーズ、装置の向きが正確性に影響を与える重要な要因として特定され、エラーは静的なタスクに比べて48.91%増加する。
これらの知見は、多様なモバイルコンテキストにおける正確性を維持するために、頭部の動きとデバイス偏向を考慮に入れた、より堅牢で適応的なアイトラッキングシステムの必要性を強調している。
関連論文リスト
- Capturing complex hand movements and object interactions using machine learning-powered stretchable smart textile gloves [9.838013581109681]
手の動きをリアルタイムに追跡することは、人間とコンピュータの相互作用、メタバース、ロボット工学、遠隔医療に多くの応用がある。
そこで本研究では, 伸縮性, 洗浄性を有するスマートグローブ, ヘリカルセンサ糸, 慣性測定ユニットを用いた手指運動の高精度かつダイナミックな追跡を報告する。
センサ糸は高いダイナミックレンジを有し, 0.005 %の低い155 %のひずみに応答し, 広範囲の使用および洗浄サイクルの安定性を示す。
論文 参考訳(メタデータ) (2024-10-03T05:32:16Z) - Realtime Dynamic Gaze Target Tracking and Depth-Level Estimation [6.435984242701043]
車両のヘッドアップディスプレイ(HUD)のような様々な用途における透明ディスプレイ(TD)は、ユーザー体験に革命をもたらす可能性がある。
このイノベーションは、リアルタイムのヒューマンデバイスインタラクション、特に動的に変化するTDに対するユーザの視線を正確に識別し追跡する上で、大きな課題を引き起こします。
本研究では,(1)目視対象を特定し,動的に追跡する木に基づくアルゴリズム,(2)目視の深度レベルを目視追跡データから推定するマルチストリーム自己認識アーキテクチャからなる,リアルタイム目視監視のための2重頑健で効率的な体系的ソリューションを提案する。
論文 参考訳(メタデータ) (2024-06-09T20:52:47Z) - Instantaneous Perception of Moving Objects in 3D [86.38144604783207]
周囲の交通参加者の3次元運動の認識は、運転安全に不可欠である。
本研究では,物体点雲の局所的な占有率の達成を利用して形状を密度化し,水泳人工物の影響を軽減することを提案する。
広汎な実験は、標準的な3次元運動推定手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-05T01:07:24Z) - Active-Perceptive Motion Generation for Mobile Manipulation [6.952045528182883]
移動マニピュレータのためのアクティブな知覚パイプラインを導入し,操作タスクに対して情報を与える動作を生成する。
提案手法であるActPerMoMaは,経路をサンプリングし,経路ワイズユーティリティーを演算することで,後退する水平方向にロボット経路を生成する。
両腕のTIAGo++ MoMaロボットを用いて,障害物のある散らばったシーンで移動体把握を行う実験において,本手法の有効性を示す。
論文 参考訳(メタデータ) (2023-09-30T16:56:52Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Automated Mobility Context Detection with Inertial Signals [7.71058263701836]
本研究の主な目的は,日常の運動機能の遠隔監視のためのコンテキスト検出について検討することである。
本研究の目的は、ウェアラブル加速度計でサンプリングされた慣性信号が、歩行関連活動を屋内または屋外に分類するための信頼性の高い情報を提供するかを理解することである。
論文 参考訳(メタデータ) (2022-05-16T09:34:43Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - SensiX: A Platform for Collaborative Machine Learning on the Edge [69.1412199244903]
センサデータとセンサモデルの間に留まるパーソナルエッジプラットフォームであるSensiXを紹介する。
動作および音声に基づくマルチデバイスセンシングシステムの開発において,その有効性を示す。
評価の結果,SensiXは3mWのオーバヘッドを犠牲にして,全体の精度が7~13%向上し,環境のダイナミクスが最大30%向上することがわかった。
論文 参考訳(メタデータ) (2020-12-04T23:06:56Z) - Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle [58.720142291102135]
物体選択と参照のための自動車応用において、手指しと目視が広く研究されている。
既存の車外参照手法は静的な状況に重点を置いているが、移動車両の状況は極めて動的であり、安全性に制約がある。
本研究では,外部オブジェクトを参照するタスクにおいて,各モダリティの具体的特徴とそれら間の相互作用について検討する。
論文 参考訳(メタデータ) (2020-09-23T14:56:19Z) - Empirical Characterization of Mobility of Multi-Device Internet Users [1.1141688859736805]
我々は、大規模なキャンパスWiFiデータセットを用いて、複数のデバイスを複数の空間スケールで所有する現代のインターネットユーザのモビリティを実証分析した。
この結果から,ユーザに属する複数のデバイスのモビリティを独立して解析し,グループとしてモデル化する必要があることが示された。
分析の結果, 利用者の移動性は, 建物内や建物間など, 異なる空間スケールで異なる特徴を示すことがわかった。
論文 参考訳(メタデータ) (2020-03-18T23:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。