論文の概要: Enriching Verbal Feedback from Usability Testing: Automatic Linking of
Thinking-Aloud Recordings and Stimulus using Eye Tracking and Mouse Data
- arxiv url: http://arxiv.org/abs/2307.05171v1
- Date: Tue, 11 Jul 2023 11:05:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 15:25:36.013780
- Title: Enriching Verbal Feedback from Usability Testing: Automatic Linking of
Thinking-Aloud Recordings and Stimulus using Eye Tracking and Mouse Data
- Title(参考訳): ユーザビリティテストによる言語フィードバックの強化:アイトラッキングとマウスデータを用いた思考音声と刺激の自動リンク
- Authors: Supriya Murali, Tina Walber, Christoph Schaefer, Sezen Lim
- Abstract要約: 我々は、視線追跡とマウス追跡を用いて、音声フィードバックと刺激の関連性を検証する。
具体的には、参加者が口頭で話しているWebページの内容にマウスを固定したり、指さしたりするかどうかをテストする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The think aloud method is an important and commonly used tool for usability
optimization. However, analyzing think aloud data could be time consuming. In
this paper, we put forth an automatic analysis of verbal protocols and test the
link between spoken feedback and the stimulus using eye tracking and mouse
tracking. The gained data - user feedback linked to a specific area of the
stimulus - could be used to let an expert review the feedback on specific web
page elements or to visualize on which parts of the web page the feedback was
given. Specifically, we test if participants fixate on or point with the mouse
to the content of the webpage that they are verbalizing. During the testing,
participants were shown three websites and asked to verbally give their
opinion. The verbal responses, along with the eye and cursor movements were
recorded. We compared the hit rate, defined as the percentage of verbally
mentioned areas of interest (AOIs) that were fixated with gaze or pointed to
with the mouse. The results revealed a significantly higher hit rate for the
gaze compared to the mouse data. Further investigation revealed that, while the
mouse was mostly used passively to scroll, the gaze was often directed towards
relevant AOIs, thus establishing a strong association between spoken words and
stimuli. Therefore, eye tracking data possibly provides more detailed
information and more valuable insights about the verbalizations compared to the
mouse data.
- Abstract(参考訳): Think Aloud法はユーザビリティ最適化のための重要かつ一般的なツールである。
しかし、音声分析は時間を要する可能性がある。
本稿では,言語プロトコルの自動分析を行い,視線追跡とマウス追跡を用いて音声フィードバックと刺激の関係を検証した。
得られたデータ – 刺激の特定の領域に関連付けられたユーザフィードバック – は、専門家が特定のWebページ要素に関するフィードバックをレビューしたり、フィードバックが与えられたWebページのどの部分を視覚化するために使用することができる。
具体的には、参加者が口頭で話しているWebページの内容にマウスを固定したり、指さしたりするかどうかをテストする。
テスト中、参加者は3つのウェブサイトを見せられ、口頭で意見を述べるように求められた。
眼球運動やカーソル運動とともに口頭反応が記録された。
視線で固定したりマウスで指さしたりした言語的に言及された関心領域(AOIs)の比率として定義されるヒット率を比較した。
その結果、マウスのデータに比べて視線に対する打撃率が有意に高かった。
さらなる調査により、マウスは主に受動的にスクロールに使われたが、視線はしばしば関連したアオオイに向けられ、話し言葉と刺激の間に強い関連が確立された。
したがって、視線追跡データは、マウスのデータと比較して、より詳細な情報と言語化に関する貴重な洞察を提供する可能性がある。
関連論文リスト
- The Design of Informative Take-Over Requests for Semi-Autonomous Cyber-Physical Systems: Combining Spoken Language and Visual Icons in a Drone-Controller Setting [10.548654133008705]
本稿では,抽象的な事前アラートと情報伝達型TORを組み合わせたテイクオーバー要求の設計を提案する。
我々は、テストベッドとして半自律ドローン制御シナリオの文脈で研究を行う。
論文 参考訳(メタデータ) (2024-09-12T17:50:05Z) - Evaluating Webcam-based Gaze Data as an Alternative for Human Rationale
Annotations [14.915881495753121]
我々は、ウェブカメラによる視線追跡記録の形で、重要度を評価する際に有効な選択肢があるかどうかを議論する。
本研究では,視線データから得られる全視線時間,視線エントロピー,復号精度などの付加情報を評価する。
この結果から,視線データは課題の難易度を推定するために活用できる貴重な言語学的洞察を提供する可能性が示唆された。
論文 参考訳(メタデータ) (2024-02-29T13:09:26Z) - Towards Understanding Emotions in Informal Developer Interactions: A
Gitter Chat Study [10.372820248341746]
幅広い感情ラベル(およびサブラベル)を手動でアノテートした開発者チャットメッセージのデータセットを提示する。
チャットに特有な感情のユニークなシグナルを調査し,他の形態のソフトウェアコミュニケーションと区別する。
以上の結果から,チャットは承認や恐怖の表現が少ないが,キュリオシティの表現がGitHubのコメントより多いことが示唆された。
論文 参考訳(メタデータ) (2023-11-08T15:29:33Z) - On the Importance of Signer Overlap for Sign Language Detection [65.26091369630547]
我々は,手話検出のための現在のベンチマークデータセットは,一般化が不十分な過度に肯定的な結果であると主張している。
我々は、現在の符号検出ベンチマークデータセットに対するシグナ重なりの影響を詳細に分析することでこれを定量化する。
我々は、重複のない新しいデータセット分割を提案し、より現実的なパフォーマンス評価を可能にします。
論文 参考訳(メタデータ) (2023-03-19T22:15:05Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Comparing informativeness of an NLG chatbot vs graphical app in
diet-information domain [0.190365714903665]
自然言語クエリを処理し,チャートとテキストの組み合わせによる洞察を提供する,NLGチャットボットを提案する。
私たちはそれを栄養学に適用し、ドメイン間通信の質が重要になります。
会話の文脈は、様々なタスクにおける食事データに対するユーザの理解を著しく改善することを発見した。
論文 参考訳(メタデータ) (2022-06-23T07:15:58Z) - Understanding How People Rate Their Conversations [73.17730062864314]
我々は、人々が会話エージェントとのインタラクションをどのように評価するかをよりよく理解するために研究を行う。
我々は、評価の変動を説明する変数として、同意性と外向性に焦点を当てる。
論文 参考訳(メタデータ) (2022-06-01T00:45:32Z) - First Contact: Unsupervised Human-Machine Co-Adaptation via Mutual
Information Maximization [112.40598205054994]
我々はこのアイデアを、インターフェースを最適化するための完全に教師なしの目的として定式化する。
タイピング,シミュレートされたロボットの制御,ゲームプレイなど,様々なキーボードとアイアイのインタフェースを運用しているユーザの540K例について,観察的研究を行った。
以上の結果から,我々の相互情報スコアは,様々な領域における真真正タスク完了メトリクスの予測値であることが示唆された。
論文 参考訳(メタデータ) (2022-05-24T21:57:18Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - Learning Efficient Representations of Mouse Movements to Predict User
Attention [12.259552039796027]
本研究では,時系列,熱マップ,軌跡に基づく画像など,マウスのカーソル運動の異なる表現について検討する。
私たちは、ユーザの注意をディスプレイに直接向けられるように、リカレントニューラルネットワークと畳み込みニューラルネットワークの両方を構築し、コントラストします。
我々のモデルは生のマウスカーソルデータに基づいて訓練され、競争力を発揮する。
論文 参考訳(メタデータ) (2020-05-30T09:52:26Z) - IART: Intent-aware Response Ranking with Transformers in
Information-seeking Conversation Systems [80.0781718687327]
我々は、情報探索会話におけるユーザ意図パターンを分析し、意図認識型ニューラルレスポンスランキングモデル「IART」を提案する。
IARTは、ユーザ意図モデリングと言語表現学習とTransformerアーキテクチャの統合の上に構築されている。
論文 参考訳(メタデータ) (2020-02-03T05:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。