論文の概要: WebQAmGaze: A Multilingual Webcam Eye-Tracking-While-Reading Dataset
- arxiv url: http://arxiv.org/abs/2303.17876v2
- Date: Fri, 14 Apr 2023 06:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 15:56:18.719614
- Title: WebQAmGaze: A Multilingual Webcam Eye-Tracking-While-Reading Dataset
- Title(参考訳): WebQAmGaze: マルチリンガルなWebカメラアイトラッキング-While-Readingデータセット
- Authors: Tiago Ribeiro, Stephanie Brandl, Anders S{\o}gaard, Nora Hollenstein
- Abstract要約: WebQAmGazeは、多言語で低コストなアイトラッキング対応データセットである。
WebQAmGazeには、英語、スペイン語、ドイツ語のテキストを自然に読む332人の参加者によるWebカメラによるアイトラッキングデータが含まれている。
- 参考スコア(独自算出の注目度): 5.755536862017454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We create WebQAmGaze, a multilingual low-cost eye-tracking-while-reading
dataset, designed to support the development of fair and transparent NLP
models. WebQAmGaze includes webcam eye-tracking data from 332 participants
naturally reading English, Spanish, and German texts. Each participant performs
two reading tasks composed of five texts, a normal reading and an
information-seeking task. After preprocessing the data, we find that fixations
on relevant spans seem to indicate correctness when answering the comprehension
questions. Additionally, we perform a comparative analysis of the data
collected to high-quality eye-tracking data. The results show a moderate
correlation between the features obtained with the webcam-ET compared to those
of a commercial ET device. We believe this data can advance webcam-based
reading studies and open a way to cheaper and more accessible data collection.
WebQAmGaze is useful to learn about the cognitive processes behind question
answering (QA) and to apply these insights to computational models of language
understanding.
- Abstract(参考訳): 我々は,公正かつ透明なNLPモデルの開発を支援するために,多言語で低コストな視線追跡読取データセットであるWebQAmGazeを開発した。
webqamgazeには、英語、スペイン語、ドイツ語のテキストを自然に読む332人のウェブカメラによる視線追跡データが含まれている。
参加者は5つのテキストからなる2つの読書タスク、通常読みと情報検索タスクを実行する。
データを前処理すると、関連するスパンの固定は、理解可能な質問に答える際の正当性を示すように見える。
また,高品質アイトラッキングデータに対して収集したデータの比較分析を行う。
その結果,Webcam-ETで得られた特徴と商用ET装置の特徴との間には適度な相関関係が認められた。
このデータはウェブカメラによる読書研究を前進させ、より安価でアクセスしやすいデータ収集の道を開くことができると考えている。
WebQAmGazeは、質問応答(QA)の背後にある認知過程を学び、これらの知見を言語理解の計算モデルに適用するのに有用である。
関連論文リスト
- VEGA: Learning Interleaved Image-Text Comprehension in Vision-Language Large Models [76.94378391979228]
我々は、Interleaved Image-Text (IITC) と呼ばれる、より要求の多い新しいタスクを導入する。
この課題は、画像とテキストの両方の過剰な要素を識別・無視し、質問に正確に答えるためにモデルに挑戦する。
このタスクを支援するために、科学コンテンツに関するIITCタスクに適した新しいVEGAデータセットを構築し、サブタスクである画像テキストアソシエーション(ITA)を考案した。
論文 参考訳(メタデータ) (2024-06-14T17:59:40Z) - Multilingual Diversity Improves Vision-Language Representations [66.41030381363244]
このデータセットの事前トレーニングは、ImageNet上で英語のみまたは英語が支配するデータセットを使用してパフォーマンスが向上する。
GeoDEのような地理的に多様なタスクでは、アフリカから得られる最大の利益とともに、すべての地域における改善も観察します。
論文 参考訳(メタデータ) (2024-05-27T08:08:51Z) - Evaluating Webcam-based Gaze Data as an Alternative for Human Rationale
Annotations [14.915881495753121]
我々は、ウェブカメラによる視線追跡記録の形で、重要度を評価する際に有効な選択肢があるかどうかを議論する。
本研究では,視線データから得られる全視線時間,視線エントロピー,復号精度などの付加情報を評価する。
この結果から,視線データは課題の難易度を推定するために活用できる貴重な言語学的洞察を提供する可能性が示唆された。
論文 参考訳(メタデータ) (2024-02-29T13:09:26Z) - Getting the Most from Eye-Tracking: User-Interaction Based Reading
Region Estimation Dataset and Models [2.9531082052924233]
ブラウザ追跡データに基づいて,地域ごとの読み出し時間を予測するモデルを構築した。
ユーザインタラクションに基づいて、メッセージレベルの読み込み時間を予測するために、マシンラーニングとディープラーニングモデルをトレーニングしました。
論文 参考訳(メタデータ) (2023-06-12T23:03:58Z) - Vision-Language Pre-Training for Boosting Scene Text Detectors [57.08046351495244]
シーンテキスト検出に視覚言語を用いた共同学習を特に応用する。
本稿では,視覚言語による事前学習を通して,文脈化された共同表現を学習することを提案する。
事前訓練されたモデルは、よりリッチなセマンティクスでより情報的な表現を生成することができる。
論文 参考訳(メタデータ) (2022-04-29T03:53:54Z) - Team \'UFAL at CMCL 2022 Shared Task: Figuring out the correct recipe
for predicting Eye-Tracking features using Pretrained Language Models [9.087729124428467]
本稿では,眼球追跡情報予測のためのCMCL 2022共有タスクについて述べる。
提案は平均5.72のMAEを達成し,共有タスクでは5位にランクインした。
論文 参考訳(メタデータ) (2022-04-11T10:43:34Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - Local-Global Video-Text Interactions for Temporal Grounding [77.5114709695216]
本稿では,テキストクエリに関連するビデオの時間間隔を特定することを目的とした,テキスト間時間グラウンドリングの問題に対処する。
そこで本研究では,テキストクエリにおける意味句の中間レベルの特徴の集合を抽出する,新しい回帰モデルを用いてこの問題に対処する。
提案手法は,ローカルからグローバルへのコンテキスト情報を活用することにより,目標時間間隔を効果的に予測する。
論文 参考訳(メタデータ) (2020-04-16T08:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。