論文の概要: Measuring Teachers' Visual Expertise Using the Gaze Relational Index
Based on Real-world Eye-tracking Data and Varying Velocity Thresholds
- arxiv url: http://arxiv.org/abs/2304.05143v2
- Date: Wed, 12 Apr 2023 11:19:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 10:52:48.677140
- Title: Measuring Teachers' Visual Expertise Using the Gaze Relational Index
Based on Real-world Eye-tracking Data and Varying Velocity Thresholds
- Title(参考訳): 実世界の視線追跡データと速度閾値に基づく視線関係指標を用いた教師の視力評価
- Authors: Christian Kosel (1), Angelina Mooseder (2), Tina Seidel (1) and
Juergen Pfeffer (2) ((1) Friedl Schoeller Endowed Chair for Educational
Psychology, School of Social Science and Technology, Technical University
Munich, Germany, (2) Computational Social Science and Big Data, School of
Social Science and Technology, Technical University Munich, Germany)
- Abstract要約: 本稿では,実世界の教室における視覚情報処理(移動視線追跡)による教師の視覚的専門知識の理解を深める。
Gaze Index(GRI)メトリックは、平均固定時間と平均固定数との比率として定義される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article adds to the understanding of teachers' visual expertise by
measuring visual information processing in real-world classrooms (mobile
eye-tracking) with the newly introduced Gaze Relational Index (GRI) metric,
which is defined as the ratio of mean fixation duration to mean fixation
number. In addition, the aim was to provide a methodological contribution to
future research by showing to what extent the selected configurations (i.e.
varying velocity thresholds and fixation merging) of the eye movement event
detection algorithm for detecting fixations and saccades influence the results
of eye-tracking studies. Our study leads to two important take-home messages:
First, by following a novice-expert paradigm (2 novice teachers & 2 experienced
teachers), we found that the GRI can serve as a sensitive measure of visual
expertise. As hypothesized, experienced teachers' GRI was lower, suggesting
that their more fine-graded organization of domain-specific knowledge allows
them to fixate more rapidly and frequently in the classroom. Second, we found
that the selected velocity threshold parameter alter and, in the worst case,
bias the results of an eye-tracking study. Therefore, in the interest of
further generalizability of the results within visual expertise research, we
emphasize that it is highly important to report configurations that are
relevant for the identification of eye movements.
- Abstract(参考訳): 本稿では,新たに導入された注視関係指数(gri)指標を用いて,実世界の教室における視覚情報処理(モバイルアイトラッキング)を計測することで,教師の視覚知識の理解を深める。
また、眼球運動イベント検出アルゴリズムの選択された構成(速度閾値の変動と固定マージ)が、眼球追跡研究の結果にどの程度影響するかを示すことにより、今後の研究への方法論的貢献を提供することを目的としている。
まず,初級-熟練のパラダイム(初級教師2名,経験者教師2名)に従うことで,GRIが視覚的専門知識の繊細な尺度として機能することを発見した。
仮説として、経験豊富な教師のGRIは低く、ドメイン固有の知識のよりきめ細やかな組織化によって、より早く頻繁に教室に定着することが示唆された。
第2に,選択した速度閾値パラメータが変化し,最悪の場合,視線追跡研究の結果に偏ることがわかった。
したがって、視覚専門知識研究における結果のさらなる一般化可能性の観点から、眼球運動の同定に関連する構成を報告することが極めて重要であることを強調する。
関連論文リスト
- Using Deep Learning to Increase Eye-Tracking Robustness, Accuracy, and Precision in Virtual Reality [2.2639735235640015]
この研究は、目の特徴追跡のための現代の機械学習(ML)に基づくいくつかの手法の影響を客観的に評価する。
メトリックには、視線推定の精度と精度、およびドロップアウト率が含まれる。
論文 参考訳(メタデータ) (2024-03-28T18:43:25Z) - CLERA: A Unified Model for Joint Cognitive Load and Eye Region Analysis
in the Wild [18.79132232751083]
目領域のダイナミックスをリアルタイムに分析することで、人間の視覚的注意の割り当てを監視し、精神状態を推定することができる。
共同学習フレームワークにおいて,正確なキーポイント検出と時間追跡を実現するCLERAを提案する。
また,共同瞳孔,眼開放性,ランドマークアノテーションを用いた30万人の顔の大規模データセットも導入した。
論文 参考訳(メタデータ) (2023-06-26T21:20:23Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - ALEBk: Feasibility Study of Attention Level Estimation via Blink
Detection applied to e-Learning [6.325464216802613]
オンラインセッションにおける学生の視線点滅率と注意度との関係を実験的に評価した。
その結果, 点眼周波数と注意レベルとの逆相関が示唆された。
本研究は,今後のeラーニングプラットフォームに注目度推定技術を導入するための新しい研究ラインを開設する。
論文 参考訳(メタデータ) (2021-12-16T19:23:56Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Classifying Eye-Tracking Data Using Saliency Maps [8.524684315458245]
本稿では,視線追跡データの自動的,定量的分類のための視覚情報に基づく特徴抽出手法を提案する。
サリエンシの振幅、類似度、相違点を対応するアイフィクスマップと比較すると、視覚追跡データを識別するために識別的特徴を生成するために有効に活用される情報の余分な次元が得られる。
論文 参考訳(メタデータ) (2020-10-24T15:18:07Z) - Spectrum-Guided Adversarial Disparity Learning [52.293230153385124]
本稿では,新たなエンド・ツー・エンドの知識指向学習フレームワークを提案する。
2つの競合符号化分布を用いてクラス条件付きクラス内不一致を表現し、学習された不一致を識別することで精製された潜伏符号を学習する。
4つのHARベンチマークデータセットに対する実験により,提案手法の頑健性と,最先端の手法による一般化が実証された。
論文 参考訳(メタデータ) (2020-07-14T05:46:27Z) - End-to-End Models for the Analysis of System 1 and System 2 Interactions
based on Eye-Tracking Data [99.00520068425759]
本稿では,よく知られたStroopテストの視覚的修正版において,様々なタスクと潜在的な競合事象を特定するための計算手法を提案する。
統計的分析により、選択された変数は、異なるシナリオにおける注意負荷の変動を特徴付けることができることが示された。
機械学習技術は,異なるタスクを分類精度良く区別できることを示す。
論文 参考訳(メタデータ) (2020-02-03T17:46:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。