論文の概要: ARNN: Attentive Recurrent Neural Network for Multi-channel EEG Signals to Identify Epileptic Seizures
- arxiv url: http://arxiv.org/abs/2403.03276v2
- Date: Mon, 18 Nov 2024 10:46:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:30:12.777073
- Title: ARNN: Attentive Recurrent Neural Network for Multi-channel EEG Signals to Identify Epileptic Seizures
- Title(参考訳): ARNN: てんかん発作を識別する多チャンネル脳波信号に対する注意的リカレントニューラルネットワーク
- Authors: Salim Rukhsar, Anil Kumar Tiwari,
- Abstract要約: A Attention Recurrent Neural Network (ARNN) が提案され、大量のデータを効率的に正確に処理できる。
ARNN細胞は、配列に沿って注意層を繰り返し適用し、配列長と線形複雑である。
このフレームワークは、注意層と長い短期記憶(LSTM)細胞にインスパイアされているが、この典型的な細胞を複数の順序でスケールアップし、マルチチャネル脳波信号を並列化する。
- 参考スコア(独自算出の注目度): 2.3907933297014927
- License:
- Abstract: Electroencephalography (EEG) is a widely used tool for diagnosing brain disorders due to its high temporal resolution, non-invasive nature, and affordability. Manual analysis of EEG is labor-intensive and requires expertise, making automatic EEG interpretation crucial for reducing workload and accurately assessing seizures. In epilepsy diagnosis, prolonged EEG monitoring generates extensive data, often spanning hours, days, or even weeks. While machine learning techniques for automatic EEG interpretation have advanced significantly in recent decades, there remains a gap in its ability to efficiently analyze large datasets with a balance of accuracy and computational efficiency. To address the challenges mentioned above, an Attention Recurrent Neural Network (ARNN) is proposed that can process a large amount of data efficiently and accurately. This ARNN cell recurrently applies attention layers along a sequence and has linear complexity with the sequence length and leverages parallel computation by processing multi-channel EEG signals rather than single-channel signals. In this architecture, the attention layer is a computational unit that efficiently applies self-attention and cross-attention mechanisms to compute a recurrent function over a wide number of state vectors and input signals. This framework is inspired in part by the attention layer and long short-term memory (LSTM) cells, but it scales this typical cell up by several orders to parallelize for multi-channel EEG signals. It inherits the advantages of attention layers and LSTM gate while avoiding their respective drawbacks. The model's effectiveness is evaluated through extensive experiments with heterogeneous datasets, including the CHB-MIT and UPenn and Mayo's Clinic datasets.
- Abstract(参考訳): 脳波検査(Electroencephalography、EEG)は、高時間分解能、非侵襲性、および可測性により脳障害を診断するために広く用いられるツールである。
脳波のマニュアル分析は労働集約的であり、専門知識を必要とするため、作業負荷の削減と発作の正確な評価に自動脳波の解釈が不可欠である。
てんかんの診断において、長期間の脳波モニタリングは、しばしば時間、日、あるいは数週間にわたる広範なデータを生成する。
近年、自動脳波解釈のための機械学習技術は大幅に進歩しているが、精度と計算効率のバランスで大規模なデータセットを効率的に分析する能力には差がある。
上記の課題に対処するため、大量のデータを効率的かつ正確に処理できる注意リカレントニューラルネットワーク(ARNN)が提案されている。
このARNNセルは、シーケンスに沿って注意層を繰り返し適用し、シーケンス長と線形複雑であり、シングルチャネル信号ではなくマルチチャネルEEG信号を処理することで並列計算を利用する。
このアーキテクチャでは、アテンション層は、多数の状態ベクトルと入力信号の繰り返し関数を計算するために、自己アテンションと相互アテンションのメカニズムを効率的に適用する計算ユニットである。
このフレームワークは、注意層と長い短期記憶(LSTM)細胞にインスパイアされているが、この典型的な細胞を複数の順序でスケールアップし、マルチチャネル脳波信号を並列化する。
注意層とLSTMゲートの利点を継承し、それぞれの欠点を回避する。
このモデルの有効性は、CHB-MIT、UPenn、Mayo's clinicデータセットを含む異種データセットによる広範な実験によって評価される。
関連論文リスト
- REST: Efficient and Accelerated EEG Seizure Analysis through Residual State Updates [54.96885726053036]
本稿では,リアルタイム脳波信号解析のための新しいグラフベース残状態更新機構(REST)を提案する。
グラフニューラルネットワークとリカレント構造の組み合わせを活用することで、RESTは、非ユークリッド幾何学とEEGデータ内の時間的依存関係の両方を効率的にキャプチャする。
本モデルは,発作検出と分類作業において高い精度を示す。
論文 参考訳(メタデータ) (2024-06-03T16:30:19Z) - Low-Frequency Load Identification using CNN-BiLSTM Attention Mechanism [0.0]
非侵入負荷モニタリング(Non-Inrusive Load Monitoring, NILM)は、効率的な電力消費管理のための確立された技術である。
本稿では,畳み込みニューラルネットワーク(CNN)と双方向長短期記憶(BILSTM)を組み合わせたハイブリッド学習手法を提案する。
CNN-BILSTMモデルは、時間的(時間的)と空間的(位置的)の両方の特徴を抽出し、アプライアンスレベルでのエネルギー消費パターンを正確に識別することができる。
論文 参考訳(メタデータ) (2023-11-14T21:02:27Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - Long Short-term Memory with Two-Compartment Spiking Neuron [64.02161577259426]
LSTM-LIFとよばれる,生物学的にインスパイアされたLong Short-Term Memory Leaky Integrate-and-Fireのスパイキングニューロンモデルを提案する。
実験結果は,時間的分類タスクの多種多様な範囲において,優れた時間的分類能力,迅速な訓練収束,ネットワークの一般化性,LSTM-LIFモデルの高エネルギー化を実証した。
したがって、この研究は、新しいニューロモルフィック・コンピューティング・マシンにおいて、困難な時間的処理タスクを解決するための、無数の機会を開放する。
論文 参考訳(メタデータ) (2023-07-14T08:51:03Z) - MP-SeizNet: A Multi-Path CNN Bi-LSTM Network for Seizure-Type
Classification Using EEG [2.1915057426589746]
てんかん患者の治療と管理には, 精垂型鑑別が不可欠である。
本稿では,MP-SeizNetを用いた新しいマルチパス・アセプション型ディープラーニング・ネットワークを提案する。
MP-SeizNetは、畳み込みニューラルネットワーク(CNN)と、注意機構を備えた双方向長短期記憶ニューラルネットワーク(Bi-LSTM)で構成されている。
論文 参考訳(メタデータ) (2022-11-09T01:07:20Z) - MAtt: A Manifold Attention Network for EEG Decoding [0.966840768820136]
多様体注意ネットワーク(mAtt)を特徴とする脳波復号のための新しい幾何学的学習(GDL)モデルを提案する。
時間同期EEGデータセットと非同期EEGデータセットの両方におけるMAttの評価は、一般的なEEGデコーディングのための他の主要なDLメソッドよりも優れていることを示唆している。
論文 参考訳(メタデータ) (2022-10-05T02:26:31Z) - Task-oriented Self-supervised Learning for Anomaly Detection in
Electroencephalography [51.45515911920534]
タスク指向型自己教師型学習手法を提案する。
大きなカーネルを持つ特定の2つの分岐畳み込みニューラルネットワークを特徴抽出器として設計する。
効果的に設計され、訓練された特徴抽出器は、より優れた特徴表現を脳波から抽出できることが示されている。
論文 参考訳(メタデータ) (2022-07-04T13:15:08Z) - Spatio-Temporal Analysis of Transformer based Architecture for Attention
Estimation from EEG [2.7076510056452654]
脳波信号から特定のタスクに与えられた注意状態、すなわち注意度を復元できる新しいフレームワークを提案する。
従来は電極による脳波の空間的関係をよく検討していたが, トランスフォーマネットワークを用いた空間的・時間的情報の利用も提案する。
提案したネットワークは、2つの公開データセットでトレーニングされ、検証され、最先端のモデルよりも高い結果が得られる。
論文 参考訳(メタデータ) (2022-04-04T08:05:33Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z) - GCNs-Net: A Graph Convolutional Neural Network Approach for Decoding
Time-resolved EEG Motor Imagery Signals [8.19994663278877]
グラフ畳み込みニューラルネットワーク(GCN)に基づく新しいディープラーニングフレームワークを提案し,生の脳波信号の復号性能を向上させる。
導入されたアプローチは、パーソナライズされた予測とグループ的な予測の両方に収束することが示されている。
論文 参考訳(メタデータ) (2020-06-16T04:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。