論文の概要: Focused State Recognition Using EEG with Eye Movement-Assisted Annotation
- arxiv url: http://arxiv.org/abs/2407.09508v1
- Date: Sat, 15 Jun 2024 14:06:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 13:28:38.470319
- Title: Focused State Recognition Using EEG with Eye Movement-Assisted Annotation
- Title(参考訳): 眼球運動補助アノテーションを用いた脳波による焦点状態認識
- Authors: Tian-Hua Li, Tian-Fang Ma, Dan Peng, Wei-Long Zheng, Bao-Liang Lu,
- Abstract要約: 脳波と眼球運動の特徴を学習するためのディープラーニングモデルは、脳活動の分類に有効である。
焦点を絞った状態は、タスクや思考に強い集中力を示し、焦点を絞らない状態は目の動きによって達成される。
- 参考スコア(独自算出の注目度): 4.705434077981147
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the rapid advancement in machine learning, the recognition and analysis of brain activity based on EEG and eye movement signals have attained a high level of sophistication. Utilizing deep learning models for learning EEG and eye movement features proves effective in classifying brain activities. A focused state indicates intense concentration on a task or thought. Distinguishing focused and unfocused states can be achieved through eye movement behaviors, reflecting variations in brain activities. By calculating binocular focusing point disparity in eye movement signals and integrating relevant EEG features, we propose an annotation method for focused states. The resulting comprehensive dataset, derived from raw data processed through a bio-acquisition device, includes both EEG features and focused labels annotated by eye movements. Extensive training and testing on several deep learning models, particularly the Transformer, yielded a 90.16% accuracy on the subject-dependent experiments. The validity of this approach was demonstrated, with cross-subject experiments, key frequency band and brain region analyses confirming its generalizability and providing physiological explanations.
- Abstract(参考訳): 機械学習の急速な進歩により、脳波と眼球運動信号に基づく脳活動の認識と分析が高度に洗練されている。
脳波と眼球運動の特徴を学習するためのディープラーニングモデルの利用は、脳活動の分類に有効である。
集中状態は、タスクや思考に強い集中力を示す。
焦点を絞った非焦点状態の識別は、脳活動の変動を反映して、眼球運動行動によって達成される。
眼球運動信号の両眼焦点差を計算し、関連する脳波特徴を統合することにより、焦点状態のアノテーション手法を提案する。
その結果得られた包括的データセットは、バイオ取得デバイスによって処理された生データから導かれるもので、脳波の特徴と眼球運動によって注釈付けされた集中ラベルの両方を含む。
いくつかのディープラーニングモデル、特にTransformerの大規模なトレーニングとテストにより、被験者に依存した実験では90.16%の精度が得られた。
提案手法の有効性を実証し, クロスオブジェクト実験, キー周波数帯域, 脳領域分析により, その一般化可能性を確認し, 生理的説明を行った。
関連論文リスト
- Feature Estimation of Global Language Processing in EEG Using Attention Maps [5.173821279121835]
本研究は,脳波の特徴推定に新たなアプローチを導入し,深層学習モデルの重みを利用してその関連を探索する。
視覚変換器とEEGNetから生成したアテンションマップは,従来の研究結果と一致した特徴を効果的に同定できることを実証する。
ViTsを用いたMel-Spectrogramの適用により、時間および周波数関連脳波特性の分解能が向上する。
論文 参考訳(メタデータ) (2024-09-27T22:52:31Z) - Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - A Knowledge-Driven Cross-view Contrastive Learning for EEG
Representation [48.85731427874065]
本稿では,限られたラベルを持つ脳波から効果的な表現を抽出する知識駆動型クロスビューコントラスト学習フレームワーク(KDC2)を提案する。
KDC2法は脳波信号の頭皮と神経のビューを生成し、脳活動の内部および外部の表現をシミュレートする。
ニューラル情報整合性理論に基づく事前のニューラル知識をモデル化することにより、提案手法は不変かつ相補的なニューラル知識を抽出し、複合表現を生成する。
論文 参考訳(メタデータ) (2023-09-21T08:53:51Z) - An Interpretable and Attention-based Method for Gaze Estimation Using
Electroencephalography [8.09848629098117]
脳波データから視線を推定するための解釈可能なモデルを提案するため,脳波と視線追跡を同時に測定した大規模なデータセットを利用する。
本稿では,脳波信号分析のための新しい注目に基づくディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-09T16:58:01Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。