論文の概要: FEMBA: Efficient and Scalable EEG Analysis with a Bidirectional Mamba Foundation Model
- arxiv url: http://arxiv.org/abs/2502.06438v1
- Date: Mon, 10 Feb 2025 13:15:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:34:25.408847
- Title: FEMBA: Efficient and Scalable EEG Analysis with a Bidirectional Mamba Foundation Model
- Title(参考訳): FEMBA:双方向マンバ基礎モデルによる高効率でスケーラブルな脳波解析
- Authors: Anna Tegon, Thorir Mar Ingolfsson, Xiaying Wang, Luca Benini, Yawei Li,
- Abstract要約: 本稿では,脳波分析のための新たな自己組織化フレームワークであるFEMBA(Foundational EEG Mamba + Bidirectional Architecture)を紹介する。
2次時間とメモリの複雑さが原因のTransformerベースのモデルとは異なり、FEMBAはシーケンス長と線形にスケールする。
トランスモデルと比較して競争性能が向上し、計算コストは大幅に低下する。
- 参考スコア(独自算出の注目度): 19.91895489891802
- License:
- Abstract: Accurate and efficient electroencephalography (EEG) analysis is essential for detecting seizures and artifacts in long-term monitoring, with applications spanning hospital diagnostics to wearable health devices. Robust EEG analytics have the potential to greatly improve patient care. However, traditional deep learning models, especially Transformer-based architectures, are hindered by their quadratic time and memory complexity, making them less suitable for resource-constrained environments. To address these challenges, we present FEMBA (Foundational EEG Mamba + Bidirectional Architecture), a novel self-supervised framework that establishes new efficiency benchmarks for EEG analysis through bidirectional state-space modeling. Unlike Transformer-based models, which incur quadratic time and memory complexity, FEMBA scales linearly with sequence length, enabling more scalable and efficient processing of extended EEG recordings. Trained on over 21,000 hours of unlabeled EEG and fine-tuned on three downstream tasks, FEMBA achieves competitive performance in comparison with transformer models, with significantly lower computational cost. Specifically, it reaches 81.82% balanced accuracy (0.8921 AUROC) on TUAB and 0.949 AUROC on TUAR, while a tiny 7.8M-parameter variant demonstrates viability for resource-constrained devices. These results pave the way for scalable, general-purpose EEG analytics in both clinical and highlight FEMBA as a promising candidate for wearable applications.
- Abstract(参考訳): 精密で効率的な脳波解析(EEG)分析は、長期監視における発作や人工物の検出に不可欠であり、病院の診断からウェアラブル医療機器への応用がある。
頑健な脳波分析は、患者のケアを大幅に改善する可能性がある。
しかし、従来のディープラーニングモデル、特にTransformerベースのアーキテクチャは、2次時間とメモリの複雑さによって妨げられ、リソース制約のある環境には適さない。
これらの課題に対処するため、我々は、双方向状態空間モデリングによる脳波解析のための新しい効率ベンチマークを確立する新しい自己組織化フレームワークであるFEMBA(Foundational EEG Mamba + Bidirectional Architecture)を提案する。
2次時間とメモリの複雑さを発生させるTransformerベースのモデルとは異なり、FEMBAはシーケンス長と線形にスケールし、拡張されたEEGレコードのよりスケーラブルで効率的な処理を可能にする。
ラベルなしの脳波を21,000時間以上トレーニングし、下流の3つのタスクを微調整することで、FEMBAはトランスフォーマーモデルと比較して競争性能が向上し、計算コストは大幅に削減された。
具体的には、TUABでは81.82%の精度(0.8921 AUROC)、TUARでは0.949 AUROCに達する。
これらの結果は、FEMBAをウェアラブルアプリケーションにとって有望な候補として、臨床とハイライトの両方において、スケーラブルで汎用的なEEG分析の道を開いた。
関連論文リスト
- Graph Adapter of EEG Foundation Models for Parameter Efficient Fine Tuning [1.8946099300030472]
EEG-GraphAdapter (EGA) はパラメータ効率の高い微細チューニング(PEFT)アプローチである。
EGAは、GNNベースのモジュールとして、事前訓練された時間バックボーンモデルに統合される。
バックボーンのBENDRモデルと比較すると、F1スコアでは最大16.1%の性能向上を実現している。
論文 参考訳(メタデータ) (2024-11-25T07:30:52Z) - FoME: A Foundation Model for EEG using Adaptive Temporal-Lateral Attention Scaling [19.85701025524892]
FoME (Foundation Model for EEG) は適応的側方アテンションスケーリングを用いた新しいアプローチである。
FoMEは1.7TBの頭皮と頭蓋内脳波記録のデータセットで事前訓練されており、1,096kのステップで745Mのパラメータが訓練されている。
論文 参考訳(メタデータ) (2024-09-19T04:22:40Z) - EEGMobile: Enhancing Speed and Accuracy in EEG-Based Gaze Prediction with Advanced Mobile Architectures [0.36832029288386137]
本研究では,脳波の回帰タスクにおいて,事前学習したMobileViTと知識蒸留(KD)を併用したモデルを提案する。
その結果,EEGEyeNet Absolute Position Task の以前の State-Of-The-Art (SOTA) に匹敵するレベル(3%以下)で動作可能であることが示された。
論文 参考訳(メタデータ) (2024-08-06T21:02:27Z) - ECGMamba: Towards Efficient ECG Classification with BiSSM [3.0120310355085467]
本稿では,双方向状態空間モデル(BiSSM)を用いて分類効率を向上させる新しいモデルECGMambaを提案する。
2つの公開ECGデータセットの実験結果は、ECGMambaが効果的に分類の有効性と効率のバランスをとることを示した。
論文 参考訳(メタデータ) (2024-06-14T14:55:53Z) - REST: Efficient and Accelerated EEG Seizure Analysis through Residual State Updates [54.96885726053036]
本稿では,リアルタイム脳波信号解析のための新しいグラフベース残状態更新機構(REST)を提案する。
グラフニューラルネットワークとリカレント構造の組み合わせを活用することで、RESTは、非ユークリッド幾何学とEEGデータ内の時間的依存関係の両方を効率的にキャプチャする。
本モデルは,発作検出と分類作業において高い精度を示す。
論文 参考訳(メタデータ) (2024-06-03T16:30:19Z) - Clairvoyance: A Pipeline Toolkit for Medical Time Series [95.22483029602921]
時系列学習は、データ駆動の*クリニカルな意思決定支援のパンとバターである*
Clairvoyanceは、ソフトウェアツールキットとして機能する、統合されたエンドツーエンドのオートMLフレンドリなパイプラインを提案する。
Clairvoyanceは、臨床時系列MLのための包括的で自動化可能なパイプラインの生存可能性を示す最初のものである。
論文 参考訳(メタデータ) (2023-10-28T12:08:03Z) - EKGNet: A 10.96{\mu}W Fully Analog Neural Network for Intra-Patient
Arrhythmia Classification [79.7946379395238]
心電図不整脈分類におけるアナログ計算と深層学習を組み合わせた統合的アプローチを提案する。
本稿では,低消費電力で高精度にアーカイブするハードウェア効率と完全アナログ不整脈分類アーキテクチャであるEKGNetを提案する。
論文 参考訳(メタデータ) (2023-10-24T02:37:49Z) - Energy-Efficient Tree-Based EEG Artifact Detection [17.085570466000906]
てんかんモニタリングでは、脳波アーチファクトは振幅と周波数の両方で形態学的に類似しているため、発作と誤認されることが多い。
本研究では, 並列超低消費電力(PULP)組み込みプラットフォーム上で, 最小数のEEGチャネルに基づくアーティファクト検出アルゴリズムの実装について述べる。
論文 参考訳(メタデータ) (2022-04-19T12:57:26Z) - Multiple Time Series Fusion Based on LSTM An Application to CAP A Phase
Classification Using EEG [56.155331323304]
本研究では,深層学習に基づく脳波チャンネルの特徴レベル融合を行う。
チャネル選択,融合,分類手順を2つの最適化アルゴリズムで最適化した。
論文 参考訳(メタデータ) (2021-12-18T14:17:49Z) - EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification [123.93460670568554]
本稿では,脳波に基づく運動画像(MI)分類のための新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案したCNNモデル、すなわちEEG-Inceptionは、Inception-Timeネットワークのバックボーン上に構築されている。
提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
論文 参考訳(メタデータ) (2021-01-24T19:03:10Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。