論文の概要: iTrace: Click-Based Gaze Visualization on the Apple Vision Pro
- arxiv url: http://arxiv.org/abs/2508.12268v1
- Date: Sun, 17 Aug 2025 07:34:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.649055
- Title: iTrace: Click-Based Gaze Visualization on the Apple Vision Pro
- Title(参考訳): iTrace:Apple Vision Proのクリックによる視線可視化
- Authors: Esra Mehmedova, Santiago Berrezueta-Guzman, Stefan Wagner,
- Abstract要約: Apple Vision Proは正確な視線追跡機能を備えているが、デバイス上のプライバシー制限により、連続したユーザーの視線データに直接アクセスできない。
この研究は、クリックベースの視線抽出技術によってこれらの制限を克服する新しいアプリケーションであるiTraceを紹介した。
我々は、視線座標を捕捉し、映像や空間的な視線追跡のための動的熱マップに変換するクライアントサーバアーキテクチャを用いたシステムを開発した。
- 参考スコア(独自算出の注目度): 2.4150871564195007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Apple Vision Pro is equipped with accurate eye-tracking capabilities, yet the privacy restrictions on the device prevent direct access to continuous user gaze data. This study introduces iTrace, a novel application that overcomes these limitations through click-based gaze extraction techniques, including manual methods like a pinch gesture, and automatic approaches utilizing dwell control or a gaming controller. We developed a system with a client-server architecture that captures the gaze coordinates and transforms them into dynamic heatmaps for video and spatial eye tracking. The system can generate individual and averaged heatmaps, enabling analysis of personal and collective attention patterns. To demonstrate its effectiveness and evaluate the usability and performance, a study was conducted with two groups of 10 participants, each testing different clicking methods. The 8BitDo controller achieved higher average data collection rates at 14.22 clicks/s compared to 0.45 clicks/s with dwell control, enabling significantly denser heatmap visualizations. The resulting heatmaps reveal distinct attention patterns, including concentrated focus in lecture videos and broader scanning during problem-solving tasks. By allowing dynamic attention visualization while maintaining a high gaze precision of 91 %, iTrace demonstrates strong potential for a wide range of applications in educational content engagement, environmental design evaluation, marketing analysis, and clinical cognitive assessment. Despite the current gaze data restrictions on the Apple Vision Pro, we encourage developers to use iTrace only in research settings.
- Abstract(参考訳): Apple Vision Proは正確な視線追跡機能を備えているが、デバイス上のプライバシー制限により、連続したユーザーの視線データに直接アクセスできない。
iTraceは、ピンチジェスチャーのような手動の手法や、ダウエルコントロールやゲームコントローラを利用した自動アプローチなど、クリックベースの視線抽出技術によってこれらの制限を克服する新しいアプリケーションである。
我々は、視線座標を捕捉し、映像や空間的な視線追跡のための動的熱マップに変換するクライアントサーバアーキテクチャを用いたシステムを開発した。
このシステムは個人および平均的なヒートマップを生成し、個人および集団の注意パターンの分析を可能にする。
有効性を実証し, ユーザビリティと性能を評価するために, 10名からなる2つのグループを用いて, それぞれ異なるクリック法を試験した。
8BitDoコントローラは、平均的なデータ収集速度を14.22クリック/秒で達成した。
得られたヒートマップは、講義ビデオに集中し、問題解決作業中により広範なスキャンを行うなど、異なる注意パターンを明らかにしている。
視線精度91%を維持しながら動的注意の可視化を可能にすることで、iTraceは教育コンテンツエンゲージメント、環境デザイン評価、マーケティング分析、臨床認知評価に幅広い応用の可能性を示す。
現在のApple Vision Proのデータ制限にもかかわらず、開発者は研究環境でのみiTraceを使うことを推奨しています。
関連論文リスト
- Top-Down Compression: Revisit Efficient Vision Token Projection for Visual Instruction Tuning [70.57180215148125]
ビジュアルインストラクションチューニングは、大きな言語モデルで視覚世界を理解できるようにすることを目的としている。
既存の手法は、精度と効率の間の難解なトレードオフに悩まされることが多い。
LLaVA-Meteorは,コア情報を妥協することなく,視覚トークンを戦略的に圧縮する手法である。
論文 参考訳(メタデータ) (2025-05-17T10:22:29Z) - A Cross-Scene Benchmark for Open-World Drone Active Tracking [54.235808061746525]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATと呼ばれるオープンワールドドローンアクティブトラッキングのためのクロスシーンクロスドメインベンチマークを提案する。
また、R-VATと呼ばれる強化学習に基づくドローン追跡手法を提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - Realtime Dynamic Gaze Target Tracking and Depth-Level Estimation [6.435984242701043]
車両のヘッドアップディスプレイ(HUD)のような様々な用途における透明ディスプレイ(TD)は、ユーザー体験に革命をもたらす可能性がある。
このイノベーションは、リアルタイムのヒューマンデバイスインタラクション、特に動的に変化するTDに対するユーザの視線を正確に識別し追跡する上で、大きな課題を引き起こします。
本研究では,(1)目視対象を特定し,動的に追跡する木に基づくアルゴリズム,(2)目視の深度レベルを目視追跡データから推定するマルチストリーム自己認識アーキテクチャからなる,リアルタイム目視監視のための2重頑健で効率的な体系的ソリューションを提案する。
論文 参考訳(メタデータ) (2024-06-09T20:52:47Z) - Spatio-Temporal Attention and Gaussian Processes for Personalized Video Gaze Estimation [7.545077734926115]
本稿では,ビデオからの視線推定を目的とした,シンプルで斬新なディープラーニングモデルを提案する。
本手法では,ビデオ内の空間的ダイナミクスを追跡する空間的注意機構を用いる。
実験の結果,提案手法の有効性を確認し,データセット内設定とデータセット間設定の両方でその成功を実証した。
論文 参考訳(メタデータ) (2024-04-08T06:07:32Z) - Decoding Attention from Gaze: A Benchmark Dataset and End-to-End Models [6.642042615005632]
視線追跡は、生態学的に有効な環境において、人間の認知に関する豊富な行動データを提供する可能性がある。
本稿では,コンピュータビジョンツールを用いて,時間とともに参加者の過度な視覚的注意の軌跡を評価する作業である「アテンション・デコーディング」について検討する。
論文 参考訳(メタデータ) (2022-11-20T12:24:57Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - Towards Hardware-Agnostic Gaze-Trackers [0.5512295869673146]
本稿では、制約付き視線追跡のための外観に基づく手法として、ディープニューラルネットワークアーキテクチャを提案する。
我々のシステムは、キャリブレーションやデバイス固有の微調整なしで、GazeCaptureデータセット上で1.8073cmの誤差を達成した。
論文 参考訳(メタデータ) (2020-10-11T00:53:57Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。