論文の概要: Spatio-Temporal Analysis of Transformer based Architecture for Attention
Estimation from EEG
- arxiv url: http://arxiv.org/abs/2204.07162v1
- Date: Mon, 4 Apr 2022 08:05:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-24 22:47:02.615996
- Title: Spatio-Temporal Analysis of Transformer based Architecture for Attention
Estimation from EEG
- Title(参考訳): 脳波からの注意推定のための変圧器アーキテクチャの時空間解析
- Authors: Victor Delvigne, Hazem Wannous, Jean-Philippe Vandeborre, Laurence
Ris, Thierry Dutoit
- Abstract要約: 脳波信号から特定のタスクに与えられた注意状態、すなわち注意度を復元できる新しいフレームワークを提案する。
従来は電極による脳波の空間的関係をよく検討していたが, トランスフォーマネットワークを用いた空間的・時間的情報の利用も提案する。
提案したネットワークは、2つの公開データセットでトレーニングされ、検証され、最先端のモデルよりも高い結果が得られる。
- 参考スコア(独自算出の注目度): 2.7076510056452654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For many years now, understanding the brain mechanism has been a great
research subject in many different fields. Brain signal processing and
especially electroencephalogram (EEG) has recently known a growing interest
both in academia and industry. One of the main examples is the increasing
number of Brain-Computer Interfaces (BCI) aiming to link brains and computers.
In this paper, we present a novel framework allowing us to retrieve the
attention state, i.e degree of attention given to a specific task, from EEG
signals. While previous methods often consider the spatial relationship in EEG
through electrodes and process them in recurrent or convolutional based
architecture, we propose here to also exploit the spatial and temporal
information with a transformer-based network that has already shown its
supremacy in many machine-learning (ML) related studies, e.g. machine
translation. In addition to this novel architecture, an extensive study on the
feature extraction methods, frequential bands and temporal windows length has
also been carried out. The proposed network has been trained and validated on
two public datasets and achieves higher results compared to state-of-the-art
models. As well as proposing better results, the framework could be used in
real applications, e.g. Attention Deficit Hyperactivity Disorder (ADHD)
symptoms or vigilance during a driving assessment.
- Abstract(参考訳): 長年にわたり、脳のメカニズムを理解することは、様々な分野で大きな研究課題となっている。
脳信号処理、特に脳波(EEG)は、近年、学術と産業の両方で関心が高まっている。
主な例の1つは、脳とコンピュータをつなぐための脳-コンピューターインターフェース(bci)の増加である。
本稿では,脳波信号から注意状態,すなわち特定のタスクに対する注意度を抽出できる新しい枠組みを提案する。
従来,脳波の空間的関係を電極を通して考慮し,再帰的あるいは畳み込み的アーキテクチャで処理する手法が多かったが,機械翻訳など多くの機械学習(ML)関連研究ですでにその優位性を示しているトランスフォーマーベースネットワークを用いて,空間的・時間的情報を活用することを提案する。
この斬新なアーキテクチャに加えて,特徴抽出法,頻度帯域,時間窓長に関する広範な研究も行われている。
提案したネットワークは、2つの公開データセットでトレーニングされ、検証され、最先端のモデルよりも高い結果が得られる。
より良い結果を提示するだけでなく、注意欠陥高活動障害(ADHD)の症状や運転評価時の警戒など、実際の応用にも使用できる。
関連論文リスト
- ARNN: Attentive Recurrent Neural Network for Multi-channel EEG Signals to Identify Epileptic Seizures [2.3907933297014927]
A Attention Recurrent Neural Network (ARNN) が提案され、大量のデータを効率的に正確に処理できる。
ARNN細胞は、配列に沿って注意層を繰り返し適用し、配列長と線形複雑である。
このフレームワークは、注意層と長い短期記憶(LSTM)細胞にインスパイアされているが、この典型的な細胞を複数の順序でスケールアップし、マルチチャネル脳波信号を並列化する。
論文 参考訳(メタデータ) (2024-03-05T19:15:17Z) - A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - A Convolutional Spiking Network for Gesture Recognition in
Brain-Computer Interfaces [0.8122270502556371]
脳信号に基づく手振り分類の例題問題に対して,簡単な機械学習に基づくアプローチを提案する。
本手法は脳波データとECoGデータの両方で異なる対象に一般化し,92.74-97.07%の範囲で精度が向上することを示した。
論文 参考訳(メタデータ) (2023-04-21T16:23:40Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - An intertwined neural network model for EEG classification in
brain-computer interfaces [0.6696153817334769]
脳コンピュータインタフェース(BCI)は、脳とコンピュータまたは外部装置との間の非刺激的直接的、時折双方向通信リンクである。
マルチクラスモータ画像分類における最先端性能を実現するために特別に設計されたディープニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-04T09:00:34Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - EEG-ITNet: An Explainable Inception Temporal Convolutional Network for
Motor Imagery Classification [0.5616884466478884]
我々はEEG-ITNetと呼ばれるエンドツーエンドのディープラーニングアーキテクチャを提案する。
本モデルでは,多チャンネル脳波信号からスペクトル,空間,時間情報を抽出することができる。
EEG-ITNetは、異なるシナリオにおける分類精度を最大5.9%改善する。
論文 参考訳(メタデータ) (2022-04-14T13:18:43Z) - Analyzing EEG Data with Machine and Deep Learning: A Benchmark [23.893444154059324]
本稿では,脳波信号解析に焦点をあて,脳波信号分類のための機械学習と深層学習のベンチマークを文献で初めて行った。
実験では,多層パーセプトロン,畳み込みニューラルネットワーク,長期記憶,ゲートリカレントユニットの4つのモデルを用いた。
論文 参考訳(メタデータ) (2022-03-18T15:18:55Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z) - EEG-based Brain-Computer Interfaces (BCIs): A Survey of Recent Studies
on Signal Sensing Technologies and Computational Intelligence Approaches and
their Applications [65.32004302942218]
Brain-Computer Interface (BCI) はユーザとシステム間の強力なコミュニケーションツールである。
近年の技術進歩は、脳波(EEG)に基づく翻訳医療用BCIへの関心が高まっている。
論文 参考訳(メタデータ) (2020-01-28T10:36:26Z) - Opportunities and Challenges of Deep Learning Methods for
Electrocardiogram Data: A Systematic Review [62.490310870300746]
心電図(Electrocardiogram、ECG)は、医学および医療において最も一般的に用いられる診断ツールの1つである。
深層学習法は心電図信号を用いた予測医療タスクにおいて有望な結果を得た。
本稿では、モデリングとアプリケーションの観点から、ECGデータに対するディープラーニング手法の体系的なレビューを行う。
論文 参考訳(メタデータ) (2019-12-28T02:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。