論文の概要: Automated analysis of eye-tracker-based human-human interaction studies
- arxiv url: http://arxiv.org/abs/2007.04671v1
- Date: Thu, 9 Jul 2020 10:00:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 04:43:58.664171
- Title: Automated analysis of eye-tracker-based human-human interaction studies
- Title(参考訳): 視線追跡に基づく人間-人間相互作用研究の自動分析
- Authors: Timothy Callemein, Kristof Van Beeck, Geert Br\^one, Toon Goedem\'e
- Abstract要約: 本稿では,移動眼球追跡データの自動解析に最先端のコンピュータビジョンアルゴリズムが用いられているかを検討する。
本稿では,人間の対面インタラクションにおける移動眼球追跡記録に焦点をあてる。
この単一パイプラインフレームワークを使用することで、現場での作業よりも正確かつ高速な結果が得られることを示す。
- 参考スコア(独自算出の注目度): 2.433293618209319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile eye-tracking systems have been available for about a decade now and
are becoming increasingly popular in different fields of application, including
marketing, sociology, usability studies and linguistics. While the
user-friendliness and ergonomics of the hardware are developing at a rapid
pace, the software for the analysis of mobile eye-tracking data in some points
still lacks robustness and functionality. With this paper, we investigate which
state-of-the-art computer vision algorithms may be used to automate the
post-analysis of mobile eye-tracking data. For the case study in this paper, we
focus on mobile eye-tracker recordings made during human-human face-to-face
interactions. We compared two recent publicly available frameworks (YOLOv2 and
OpenPose) to relate the gaze location generated by the eye-tracker to the head
and hands visible in the scene camera data. In this paper we will show that the
use of this single-pipeline framework provides robust results, which are both
more accurate and faster than previous work in the field. Moreover, our
approach does not rely on manual interventions during this process.
- Abstract(参考訳): モバイルの視線追跡システムは10年ほど前から利用されており、マーケティング、社会学、ユーザビリティ研究、言語学など、さまざまな分野のアプリケーションで人気が高まっている。
ハードウェアのユーザフレンドリさやエルゴノミクスは急速に発展しているが、モバイルの視線追跡データを分析するためのソフトウェアはまだ堅牢性や機能に欠ける。
本稿では,移動眼球追跡データの自動解析に最先端のコンピュータビジョンアルゴリズムが用いられているかを検討する。
本稿では,人間と人間の対面インタラクション中に作成された移動型アイトラッカ記録に着目した。
最近公開された2つのフレームワーク(yolov2とopenpose)を比較して、視線追跡装置が生成した視線位置を、シーンカメラデータで見える頭部と手とに関連付けた。
本稿では,この単一パイプラインフレームワークを用いることで,現場での作業よりも正確かつ高速な結果が得られることを示す。
さらに,この手法では手作業による介入は行わない。
関連論文リスト
- I-MPN: Inductive Message Passing Network for Efficient Human-in-the-Loop Annotation of Mobile Eye Tracking Data [4.487146086221174]
本稿では,移動眼球追跡設定における物体の自動認識のための新しい人間中心学習アルゴリズムを提案する。
提案手法は,オブジェクト検出器と空間的関係を考慮した誘導型メッセージパッシングネットワーク(I-MPN)をシームレスに統合し,ノードプロファイル情報を活用し,オブジェクト相関を捉える。
論文 参考訳(メタデータ) (2024-06-10T13:08:31Z) - Open Gaze: Open Source eye tracker for smartphone devices using Deep Learning [0.0]
本稿では,GooglePaperが提案する方法論をエミュレートした,スマートフォンベースのガウントラッカーのオープンソース実装について述べる。
機械学習技術の統合により、スマートフォンにネイティブな正確な視線追跡ソリューションを公開する。
本研究は眼球運動研究を顕著に増幅する本質的な可能性を示すものである。
論文 参考訳(メタデータ) (2023-08-25T17:10:22Z) - Tackling Face Verification Edge Cases: In-Depth Analysis and
Human-Machine Fusion Approach [5.574995936464475]
本稿では,顔認証作業における機械と人間の操作者の組み合わせの効果について検討する。
本研究は,60名の被験者を対象に,人間によるタスクに関する調査を行い,広範囲な分析を行った。
我々は、マシンと人間の意思決定を組み合わせることで、最先端の顔認証システムの性能をさらに向上させることができることを実証した。
論文 参考訳(メタデータ) (2023-04-17T10:29:26Z) - Literature Review: Computer Vision Applications in Transportation
Logistics and Warehousing [58.720142291102135]
輸送物流や倉庫におけるコンピュータビジョンの応用は、プロセスの自動化に大きな可能性を秘めている。
本稿では、この可能性を活用するために、この分野の研究に関する構造化された文献レビューを紹介する。
論文 参考訳(メタデータ) (2023-04-12T17:33:41Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - OG-SGG: Ontology-Guided Scene Graph Generation. A Case Study in Transfer
Learning for Telepresence Robotics [124.08684545010664]
画像からのシーングラフ生成は、ロボット工学のようなアプリケーションに非常に関心を持つタスクである。
オントロジー誘導シーングラフ生成(OG-SGG)と呼ばれるフレームワークの初期近似を提案する。
論文 参考訳(メタデータ) (2022-02-21T13:23:15Z) - Facial Emotion Recognition using Deep Residual Networks in Real-World
Environments [5.834678345946704]
そこで本研究では,Wild内および大規模に収集されたビデオデータセットに基づいて訓練された顔特徴抽出モデルを提案する。
データセットは100万のラベル付きフレームと2,616万の被験者で構成されている。
感情認識領域において時間情報は重要であるため、LSTM細胞を用いてデータの時間的ダイナミクスを捉える。
論文 参考訳(メタデータ) (2021-11-04T10:08:22Z) - Human-Robot Collaboration and Machine Learning: A Systematic Review of
Recent Research [69.48907856390834]
人間ロボットコラボレーション(Human-robot collaboration、HRC)とは、人間とロボットの相互作用を探索する手法である。
本稿では,HRCの文脈における機械学習技術の利用に関する詳細な文献レビューを提案する。
論文 参考訳(メタデータ) (2021-10-14T15:14:33Z) - MutualEyeContact: A conversation analysis tool with focus on eye contact [69.17395873398196]
MutualEyeContactは、社会的相互作用における(相互)アイコンタクトの重要性を理解するのに役立つ。
我々は、最先端の視線追跡と機械学習に基づく顔認識を組み合わせるとともに、ソーシャルインタラクションセッションの分析と可視化のためのツールを提供する。
論文 参考訳(メタデータ) (2021-07-09T15:05:53Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Towards Hardware-Agnostic Gaze-Trackers [0.5512295869673146]
本稿では、制約付き視線追跡のための外観に基づく手法として、ディープニューラルネットワークアーキテクチャを提案する。
我々のシステムは、キャリブレーションやデバイス固有の微調整なしで、GazeCaptureデータセット上で1.8073cmの誤差を達成した。
論文 参考訳(メタデータ) (2020-10-11T00:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。