論文の概要: Multi-person eye tracking for real-world scene perception in social settings
- arxiv url: http://arxiv.org/abs/2407.06345v1
- Date: Mon, 8 Jul 2024 19:33:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 20:04:29.816019
- Title: Multi-person eye tracking for real-world scene perception in social settings
- Title(参考訳): ソーシャル・セッティングにおける実世界のシーン認識のためのマルチパーソン・アイトラッキング
- Authors: Shreshth Saxena, Areez Visram, Neil Lobo, Zahid Mirza, Mehak Rafi Khan, Biranugan Pirabaharan, Alexander Nguyen, Lauren K. Fink,
- Abstract要約: モバイルアイトラッキングを実世界のマルチパーソン・セットアップに適用し、同期データをストリームし、記録し、分析するシステムを開発する。
本システムは,挑戦的な動的シーンにおける正確な時間同期と正確な視線投影を実現する。
この進歩は、協調行動、グループダイナミクス、社会的相互作用に関する洞察を、高い生態学的妥当性で得る。
- 参考スコア(独自算出の注目度): 34.82692226532414
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Eye movements provide a window into human behaviour, attention, and interaction dynamics. Previous research suggests that eye movements are highly influenced by task, setting, and social others; however, most eye tracking research is conducted in single-person, in-lab settings and is yet to be validated in multi-person, naturalistic contexts. One such prevalent real-world context is the collective viewing of a shared scene in social settings, for example, viewing a concert, film, lecture, sports, etc. Here, we apply mobile eye tracking in a real-world multi-person setup and develop a system to stream, record, and analyse synchronised data. We tested our proposed, open-source system while participants (N=60) watched a live concert and a documentary film screening during a public event. We tackled challenges related to networking bandwidth requirements, real-time monitoring, and gaze projection from individual egocentric perspectives to a common coordinate space for shared gaze analysis. Our system achieves precise time synchronisation and accurate gaze projection in challenging dynamic scenes. Further, to illustrate the potential of collective eye-tracking data, we introduce and evaluate novel analysis metrics and visualisations. Overall, our approach contributes to the development and application of versatile multi-person eye tracking systems in real-world social settings. This advancement enables insight into collaborative behaviour, group dynamics, and social interaction, with high ecological validity. Moreover, it paves the path for innovative, interactive tools that promote collaboration and coordination in social contexts.
- Abstract(参考訳): 眼球運動は人間の行動、注意、相互作用のダイナミクスの窓となる。
以前の研究では、眼球運動はタスク、セッティング、社会的な他者の影響を強く受けていることが示唆されているが、ほとんどの眼球追跡研究はシングル・パーソナリティ、イン・ラブ・セッティングで行われており、マルチ・パーソナリティ、ナチュラル・コンテクストではまだ検証されていない。
このような現実的な文脈の1つは、例えばコンサート、映画、講義、スポーツなど、共有シーンを社会的設定で集合的に見ることである。
そこで我々は,実世界のマルチパーソン・セットアップにモバイルアイトラッキングを適用し,同期データをストリームし,記録し,分析するシステムを開発した。
参加者(N=60)が公開イベントでライブコンサートとドキュメンタリー映像の上映を観ている間,提案したオープンソースシステムを検証した。
我々は、ネットワーク帯域幅の要求、リアルタイム監視、および個々の自我中心的な視点からの視線投影に関する課題に取り組み、共通の視線分析のための座標空間に対処した。
本システムは,挑戦的な動的シーンにおける正確な時間同期と正確な視線投影を実現する。
さらに、眼球追跡データの可能性を説明するために、新しい分析指標と可視化を導入し、評価する。
本手法は,現実の社会環境における多目的多人数視線追跡システムの開発と応用に寄与する。
この進歩は、協調行動、グループダイナミクス、社会的相互作用に関する洞察を、高い生態学的妥当性で得る。
さらに、社会的文脈における協調と協調を促進する革新的でインタラクティブなツールの道を開く。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Spherical World-Locking for Audio-Visual Localization in Egocentric Videos [53.658928180166534]
我々は,エゴセントリックなシーン表現のための一般的なフレームワークとして,球状ワールドロックを提案する。
従来の2次元平面場を持つ自己中心表現と比較して、SWLは自動による課題を効果的に相殺する。
シーン表現の球面構造を保存する統一エンコーダデコーダトランスアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-08-09T22:29:04Z) - 3D Gaze Tracking for Studying Collaborative Interactions in Mixed-Reality Environments [3.8075244788223044]
本研究では,複合現実感設定に適した3次元視線追跡のための新しい枠組みを提案する。
提案フレームワークは,現状のコンピュータビジョンと機械学習技術を利用して障害物を克服する。
論文 参考訳(メタデータ) (2024-06-16T16:30:56Z) - I-MPN: Inductive Message Passing Network for Efficient Human-in-the-Loop Annotation of Mobile Eye Tracking Data [4.487146086221174]
本稿では,移動眼球追跡設定における物体の自動認識のための新しい人間中心学習アルゴリズムを提案する。
提案手法は,オブジェクト検出器と空間的関係を考慮した誘導型メッセージパッシングネットワーク(I-MPN)をシームレスに統合し,ノードプロファイル情報を活用し,オブジェクト相関を捉える。
論文 参考訳(メタデータ) (2024-06-10T13:08:31Z) - HIG: Hierarchical Interlacement Graph Approach to Scene Graph Generation in Video Understanding [8.10024991952397]
既存の手法は単純な関係モデルを活用しながら複雑な相互作用に焦点を当てている。
階層構造内の統一層とグラフを利用する階層型インターレースグラフ (HIG) という新しい手法を提案する。
提案手法は,様々なシナリオで実施された広範囲な実験を通じて,他の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-05T18:47:19Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Do Pedestrians Pay Attention? Eye Contact Detection in the Wild [75.54077277681353]
都市環境では、人間は近くの人々との迅速かつ効率的なコミュニケーションのためにアイコンタクトに依存している。
本稿では,環境や歩行者距離を制御できない自動運転車の眼球接触検出,すなわち実世界のシナリオに着目した。
本稿では, セマンティックキーポイントを利用したアイコンタクト検出モデルを導入し, このハイレベルな表現が, 一般公開データセットJAADの最先端結果を実現することを示す。
ドメイン適応を研究するために、私たちは、野生のアイコンタクト検出のための大規模データセット、LOOKを作成しました。
論文 参考訳(メタデータ) (2021-12-08T10:21:28Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Non-contact Real time Eye Gaze Mapping System Based on Deep
Convolutional Neural Network [0.0]
実環境に適用可能な非接触視線マッピングシステムを提案する。
本稿では、GIST Gazeマッピングデータセットを紹介し、GIST Gazeマッピングを学習し、評価するために作成されたGIST Gazeマッピングデータセットについて紹介する。
論文 参考訳(メタデータ) (2020-09-10T02:37:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。