論文の概要: Reading Task Classification Using EEG and Eye-Tracking Data
- arxiv url: http://arxiv.org/abs/2112.06310v1
- Date: Sun, 12 Dec 2021 19:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 07:15:39.668192
- Title: Reading Task Classification Using EEG and Eye-Tracking Data
- Title(参考訳): 脳波と視線追跡データを用いた読解タスク分類
- Authors: Nora Hollenstein, Marius Tr\"ondle, Martyna Plomecka, Samuel
Kiegeland, Yilmazcan \"Ozyurt, Lena A. J\"ager, Nicolas Langer
- Abstract要約: Zurich Cognitive Language Processing Corpus (ZuCo)は、2つの読書パラダイムからの視線追跡と脳波信号を提供する。
我々は、視線追跡と脳波機能を用いて、機械学習がこれらの2つのタスクを分類できるかどうかを分析する。
- 参考スコア(独自算出の注目度): 2.625319613930395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Zurich Cognitive Language Processing Corpus (ZuCo) provides eye-tracking
and EEG signals from two reading paradigms, normal reading and task-specific
reading. We analyze whether machine learning methods are able to classify these
two tasks using eye-tracking and EEG features. We implement models with
aggregated sentence-level features as well as fine-grained word-level features.
We test the models in within-subject and cross-subject evaluation scenarios.
All models are tested on the ZuCo 1.0 and ZuCo 2.0 data subsets, which are
characterized by differing recording procedures and thus allow for different
levels of generalizability. Finally, we provide a series of control experiments
to analyze the results in more detail.
- Abstract(参考訳): Zurich Cognitive Language Processing Corpus (ZuCo)は、通常の読書とタスク固有の読書の2つのパラダイムから、視線追跡と脳波信号を提供する。
我々は、視線追跡と脳波機能を用いて、機械学習がこれらの2つのタスクを分類できるかどうかを分析する。
センテンスレベルの特徴と粒度の細かい単語レベルの特徴を持つモデルを実装した。
対象内および対象間評価シナリオでモデルをテストする。
すべてのモデルはzuco 1.0とzuco 2.0のデータサブセット上でテストされ、異なる記録手順によって特徴付けられるため、異なるレベルの一般化が可能となる。
最後に、結果をより詳細に分析するための一連の制御実験を提供する。
関連論文リスト
- Beyond Coarse-Grained Matching in Video-Text Retrieval [50.799697216533914]
きめ細かい評価のための新しいアプローチを導入する。
テストキャプションを自動的に生成することで,既存のデータセットにアプローチを適用することができる。
きめ細かい評価実験は、このアプローチがきめ細かな違いを理解するモデルの能力を高めることを実証している。
論文 参考訳(メタデータ) (2024-10-16T09:42:29Z) - Narrative Action Evaluation with Prompt-Guided Multimodal Interaction [60.281405999483]
ナラティブ・アクション・アセスメント(NAE)は、行動の実行を評価する専門家のコメントを作成することを目的としている。
NAEは、物語の柔軟性と評価の厳格さの両方を必要とするため、より困難なタスクです。
本稿では,様々な情報モダリティ間のインタラクションを容易にするための,プロンプト誘導型マルチモーダルインタラクションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-22T17:55:07Z) - SLUE Phase-2: A Benchmark Suite of Diverse Spoken Language Understanding
Tasks [88.4408774253634]
音声言語理解(SLU)タスクは、音声研究コミュニティで何十年にもわたって研究されてきた。
SLUタスクベンチマークはそれほど多くはなく、既存のベンチマークの多くは、すべての研究者が自由に利用できないデータを使っている。
最近の研究は、いくつかのタスクにそのようなベンチマークを導入し始めている。
論文 参考訳(メタデータ) (2022-12-20T18:39:59Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Zero Shot Crosslingual Eye-Tracking Data Prediction using Multilingual
Transformer Models [0.0]
本稿では,多言語データセットの読解パターンを予測するCMCL 2022共有タスクについて述べる。
本モデルでは, 平均偏差と標準偏差の統計的測度を予測するために, 変圧器のテキスト表現と回帰層を用いた手作業による特徴量を用いる。
エンド・ツー・エンドのモデルをトレーニングし、異なる言語から意味のある情報を抽出し、2つの別々のデータセットでモデルをテストします。
論文 参考訳(メタデータ) (2022-03-30T17:11:48Z) - A Hierarchical Model for Spoken Language Recognition [29.948719321162883]
音声言語認識(SLR)とは、音声サンプルに含まれる言語を決定するための自動処理である。
本稿では,2つのPLDAモデルを訓練し,その1つは高関係言語クラスタのスコアを生成し,もう1つは各クラスタに条件付きスコアを生成するという新しい階層的アプローチを提案する。
この階層的アプローチは、高度に関連性の高い言語を検出する非階層的アプローチよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-01-04T22:10:36Z) - SLUE: New Benchmark Tasks for Spoken Language Understanding Evaluation
on Natural Speech [44.68649535280397]
音声言語理解評価(SLUE)のための一連のベンチマークタスクを提案する。
SLUEは限定的なラベル付きトレーニングセットとそれに対応する評価セットで構成されている。
本稿では,SLUEベンチマークスイートの第1フェーズについて述べる。
本稿では,VoxCelebデータセットとVoxPopuliデータセットのサブセットに対する新たな書き起こしとアノテーション,ベースラインモデルの評価指標と結果,ベースラインを再現し,新しいモデルを評価するためのオープンソースツールキットを提供する。
論文 参考訳(メタデータ) (2021-11-19T18:59:23Z) - Leveraging recent advances in Pre-Trained Language Models
forEye-Tracking Prediction [0.0]
Natural Language Pro-cessingは、視線追跡データなどの人間由来の行動データを使用してニューラルネットを強化し、構文とセマンティクスにまたがるさまざまなタスクを解決する。
本稿では、ZuCo 1.0とZuCo 2.0データセットを用いて、異なる言語モデルを探り、各単語について、その意味について、これらの用語の特徴を直接予測する。
論文 参考訳(メタデータ) (2021-10-09T06:46:48Z) - Towards Understanding Sample Variance in Visually Grounded Language
Generation: Evaluations and Observations [67.4375210552593]
視覚的基盤言語生成において,重要だがしばしば無視される問題を理解するために実験を設計する。
人間にはさまざまなユーティリティと視覚的注意があるので、マルチ参照データセットのサンプルのばらつきはモデルの性能にどのように影響しますか?
人為的な参照は、異なるデータセットやタスクで大きく変化する可能性があり、それぞれのタスクの性質が明らかになる。
論文 参考訳(メタデータ) (2020-10-07T20:45:14Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。