論文の概要: Realtime Dynamic Gaze Target Tracking and Depth-Level Estimation
- arxiv url: http://arxiv.org/abs/2406.18595v1
- Date: Sun, 9 Jun 2024 20:52:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 05:40:31.433762
- Title: Realtime Dynamic Gaze Target Tracking and Depth-Level Estimation
- Title(参考訳): リアルタイム動注視目標追跡と深さレベル推定
- Authors: Esmaeil Seraj, Harsh Bhate, Walter Talamonti,
- Abstract要約: 車両のヘッドアップディスプレイ(HUD)のような様々な用途における透明ディスプレイ(TD)は、ユーザー体験に革命をもたらす可能性がある。
このイノベーションは、リアルタイムのヒューマンデバイスインタラクション、特に動的に変化するTDに対するユーザの視線を正確に識別し追跡する上で、大きな課題を引き起こします。
本研究では,(1)目視対象を特定し,動的に追跡する木に基づくアルゴリズム,(2)目視の深度レベルを目視追跡データから推定するマルチストリーム自己認識アーキテクチャからなる,リアルタイム目視監視のための2重頑健で効率的な体系的ソリューションを提案する。
- 参考スコア(独自算出の注目度): 6.435984242701043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of Transparent Displays (TD) in various applications, such as Heads-Up Displays (HUDs) in vehicles, is a burgeoning field, poised to revolutionize user experiences. However, this innovation brings forth significant challenges in realtime human-device interaction, particularly in accurately identifying and tracking a user's gaze on dynamically changing TDs. In this paper, we present a two-fold robust and efficient systematic solution for realtime gaze monitoring, comprised of: (1) a tree-based algorithm for identifying and dynamically tracking gaze targets (i.e., moving, size-changing, and overlapping 2D content) projected on a transparent display, in realtime; (2) a multi-stream self-attention architecture to estimate the depth-level of human gaze from eye tracking data, to account for the display's transparency and preventing undesired interactions with the TD. We collected a real-world eye-tracking dataset to train and test our gaze monitoring system. We present extensive results and ablation studies, including inference experiments on System on Chip (SoC) evaluation boards, demonstrating our model's scalability, precision, and realtime feasibility in both static and dynamic contexts. Our solution marks a significant stride in enhancing next-generation user-device interaction and experience, setting a new benchmark for algorithmic gaze monitoring technology in dynamic transparent displays.
- Abstract(参考訳): 車両におけるヘッドアップディスプレイ(HUD)など、さまざまな用途における透明ディスプレイ(TD)の統合は、ユーザエクスペリエンスに革命をもたらす、急成長する分野である。
しかし、このイノベーションは、特に動的に変化するTDに対するユーザの視線を正確に識別し、追跡することにおいて、リアルタイムのヒューマンデバイスインタラクションにおいて重大な課題を引き起こします。
本稿では,(1)透明ディスプレイに投影された視線ターゲット(移動,サイズ変更,重なり合う2Dコンテンツ)をリアルタイムに検出・追跡するツリーベースアルゴリズム,(2)目追跡データから人間の視線深度を推定するマルチストリーム自己認識アーキテクチャを用いて,ディスプレイの透明性を考慮し,TDとの望ましくない相互作用を防止する。
私たちは、視線監視システムのトレーニングとテストを行うために、現実世界の視線追跡データセットを収集しました。
本稿では,システム・オン・チップ (SoC) 評価ボード上での推論実験や,静的・動的両方の状況におけるモデルのスケーラビリティ,精度,リアルタイム実現可能性について述べる。
弊社のソリューションは、次世代のユーザデバイスインタラクションとエクスペリエンスの向上に大きく貢献し、ダイナミック透明ディスプレイにおけるアルゴリズムによる視線監視技術のベンチマークを新たに設定した。
関連論文リスト
- Quantifying the Impact of Motion on 2D Gaze Estimation in Real-World Mobile Interactions [18.294511216241805]
本稿では,ユーザの移動度と行動がモバイル視線追跡精度に与える影響を実証的に示す。
頭部距離、頭部ポーズ、装置の向きは、正確性に影響を与える重要な要因である。
発見は、より堅牢で適応的な視線追跡システムの必要性を強調している。
論文 参考訳(メタデータ) (2025-02-14T21:44:52Z) - Benchmarking Vision-Based Object Tracking for USVs in Complex Maritime Environments [0.8796261172196743]
視覚に基づく目標追跡は無人表面車両にとって不可欠である。
海上環境におけるリアルタイムトラッキングは、動的なカメラの動き、視界の低さ、スケールの変動によって困難である。
本研究では,USVのための視覚誘導型物体追跡フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-10T10:35:17Z) - A Cross-Scene Benchmark for Open-World Drone Active Tracking [54.235808061746525]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATと呼ばれるオープンワールドドローンアクティブトラッキングのためのクロスシーンクロスドメインベンチマークを提案する。
また、R-VATと呼ばれる強化学習に基づくドローン追跡手法を提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - SocialEyes: Scaling mobile eye-tracking to multi-person social settings [34.82692226532414]
我々は、複数の移動眼球追跡装置から収集した同期データを、集合的な視聴体験中にストリーミングし、記録し、分析するシステムを開発した。
我々は,2つの公開イベント(N=60)毎に,30人の同時視聴者によるライブコンサートと映画上映でシステムをテストした。
我々の新しい分析指標と可視化は、協調行動と社会的相互作用を理解するための集合的視線追跡データの可能性を示している。
論文 参考訳(メタデータ) (2024-07-08T19:33:17Z) - Leveraging the Power of Data Augmentation for Transformer-based Tracking [64.46371987827312]
トラッキング用にカスタマイズされた2つのデータ拡張手法を提案する。
まず、動的探索半径機構と境界サンプルのシミュレーションにより、既存のランダムトリミングを最適化する。
第2に,背景干渉などの問題に対するモデルを可能にする,トークンレベルの機能混在強化戦略を提案する。
論文 参考訳(メタデータ) (2023-09-15T09:18:54Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - RGB-D Railway Platform Monitoring and Scene Understanding for Enhanced
Passenger Safety [3.4298729855744026]
本稿では,人間を地上平面上で検出し追跡するための柔軟な解析手法を提案する。
我々は、RGBと深度に基づく検出と追跡の複数の組み合わせについて検討する。
その結果,奥行きに基づく空間情報と学習表現の組み合わせにより,検出精度と追跡精度が大幅に向上した。
論文 参考訳(メタデータ) (2021-02-23T14:44:34Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。