論文の概要: An Accurate EEGNet-based Motor-Imagery Brain-Computer Interface for
Low-Power Edge Computing
- arxiv url: http://arxiv.org/abs/2004.00077v2
- Date: Wed, 29 Apr 2020 06:39:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 02:06:24.385716
- Title: An Accurate EEGNet-based Motor-Imagery Brain-Computer Interface for
Low-Power Edge Computing
- Title(参考訳): 低消費電力エッジコンピューティングのための正確なEEGNetベースモータ画像脳-コンピュータインタフェース
- Authors: Xiaying Wang, Michael Hersche, Batuhan T\"omekce, Burak Kaya, Michele
Magno, Luca Benini
- Abstract要約: 本稿では,MI-BCI(MI-BCI)の精度と堅牢性を示す。
EEGNetに基づく新しいモデルでは、低消費電力マイクロコントローラユニット(MCU)のメモリフットプリントと計算資源の要件が一致している。
スケールされたモデルは、最小モデルを操作するために101msと4.28mJを消費する商用のCortex-M4F MCUにデプロイされ、中型モデルでは44msと18.1mJのCortex-M7にデプロイされる。
- 参考スコア(独自算出の注目度): 13.266626571886354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an accurate and robust embedded motor-imagery
brain-computer interface (MI-BCI). The proposed novel model, based on EEGNet,
matches the requirements of memory footprint and computational resources of
low-power microcontroller units (MCUs), such as the ARM Cortex-M family.
Furthermore, the paper presents a set of methods, including temporal
downsampling, channel selection, and narrowing of the classification window, to
further scale down the model to relax memory requirements with negligible
accuracy degradation. Experimental results on the Physionet EEG Motor
Movement/Imagery Dataset show that standard EEGNet achieves 82.43%, 75.07%, and
65.07% classification accuracy on 2-, 3-, and 4-class MI tasks in global
validation, outperforming the state-of-the-art (SoA) convolutional neural
network (CNN) by 2.05%, 5.25%, and 5.48%. Our novel method further scales down
the standard EEGNet at a negligible accuracy loss of 0.31% with 7.6x memory
footprint reduction and a small accuracy loss of 2.51% with 15x reduction. The
scaled models are deployed on a commercial Cortex-M4F MCU taking 101ms and
consuming 4.28mJ per inference for operating the smallest model, and on a
Cortex-M7 with 44ms and 18.1mJ per inference for the medium-sized model,
enabling a fully autonomous, wearable, and accurate low-power BCI.
- Abstract(参考訳): 本稿では,mi-bci (embedded motor-imagery brain-computer interface) の精度とロバスト性について述べる。
EEGNetに基づく新しいモデルでは、ARM Cortex-Mファミリのような低消費電力マイクロコントローラユニット(MCU)のメモリフットプリントと計算資源の要求に合致する。
さらに,本論文では,時間的ダウンサンプリング,チャネル選択,分類ウィンドウの絞りなど,メモリ要件の緩和のためにモデルをさらにスケールダウンし,精度を損なうことなくメモリ要件を緩和する手法を提案する。
Physionet EEG Motor Movement/Imagery Datasetの実験結果によると、標準的なEEGNetは2-、3-および4-class MIタスクで82.43%、75.07%、65.07%の分類精度を達成し、最先端(SoA)畳み込みニューラルネットワーク(CNN)を2.05%、5.25%、そして5.48%で上回った。
提案手法では,7.6倍のメモリフットプリント削減で0.31%,15倍削減で2.51%の精度低下を実現した。
スケールされたモデルは、商用のcortex-m4f mcuに101ms、最小のモデルを操作する推論に4.28mj、中型モデルの推論に44msと18.1mjのcortex-m7にデプロイされ、完全に自律的でウェアラブルで正確な低消費電力bciを実現する。
関連論文リスト
- End-to-End Deep Transfer Learning for Calibration-free Motor Imagery
Brain Computer Interfaces [0.0]
Motor Imagery Brain-Computer Interfaces (MI-BCIs) の主な課題は、その分類精度の低さと、被検体固有の校正に必要な大量のデータである。
本研究は, キャリブレーション非依存型BCIの開発にディープトランスファー学習を用いた。
3つのディープラーニングモデル(MIN2Net、EEGNet、DeepConvNet)をトレーニングし、公開データセットを使用して比較した。
論文 参考訳(メタデータ) (2023-07-24T14:24:17Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - Rethinking Mobile Block for Efficient Attention-based Models [60.0312591342016]
本稿では、パラメータ、FLOP、性能をトレードオフしながら、高密度予測のための現代的で効率的で軽量なモデルを開発することに焦点を当てる。
Inverted Residual Block (IRB) は軽量CNNの基盤として機能するが、注目に基づく研究ではその存在は認められていない。
我々はCNNベースのIRBをアテンションベースモデルに拡張し、軽量モデル設計のためのMMB(One-Residual Meta Mobile Block)を抽象化する。
論文 参考訳(メタデータ) (2023-01-03T15:11:41Z) - The case for 4-bit precision: k-bit Inference Scaling Laws [75.4335600212427]
量子化法は、モデル内の各パラメータを表すために必要なビット数を減少させる。
最終的なモデルサイズは、元のモデルのパラメータの数と圧縮率の両方に依存する。
我々は16ビットの入力とkビットのパラメータを持つ35,000以上のゼロショット実験を行い、どの量子化手法が3ビットから8ビットの精度でスケーリングを改善するかを検証した。
論文 参考訳(メタデータ) (2022-12-19T18:48:33Z) - A Two-Stage Efficient 3-D CNN Framework for EEG Based Emotion
Recognition [3.147603836269998]
フレームワークは2つのステージで構成されており、最初の段階はEEGNetと呼ばれる効率的なモデルの構築である。
第2段階では、これらのモデルをバイナライズしてさらに圧縮し、エッジデバイスに容易にデプロイする。
提案したバイナライズされたEEGNetモデルは、それぞれ0.11Mbits、0.28Mbits、0.46Mbitsのストレージコストで81%、95%、99%の精度を達成する。
論文 参考訳(メタデータ) (2022-07-26T05:33:08Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification [123.93460670568554]
本稿では,脳波に基づく運動画像(MI)分類のための新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案したCNNモデル、すなわちEEG-Inceptionは、Inception-Timeネットワークのバックボーン上に構築されている。
提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
論文 参考訳(メタデータ) (2021-01-24T19:03:10Z) - EEG-TCNet: An Accurate Temporal Convolutional Network for Embedded
Motor-Imagery Brain-Machine Interfaces [15.07343602952606]
本稿では、トレーニング可能なパラメータをほとんど必要とせず、優れた精度を実現する新しい時間畳み込みネットワーク(TCN)であるEEG-TCNetを提案する。
メモリフットプリントが低く、推論の計算量も少ないため、エッジのリソース制限されたデバイスの組み込み分類に適している。
論文 参考訳(メタデータ) (2020-05-31T21:45:45Z) - Q-EEGNet: an Energy-Efficient 8-bit Quantized Parallel EEGNet
Implementation for Edge Motor-Imagery Brain--Machine Interfaces [16.381467082472515]
運動画像脳-機械インタフェース(MI-BMI)は、人間の脳と機械間の直接的かつアクセス可能なコミュニケーションをプロミットする。
脳波信号を分類するためのディープラーニングモデルが登場した。
これらのモデルは、メモリと計算要求のため、エッジデバイスの限界を超えることが多い。
論文 参考訳(メタデータ) (2020-04-24T12:29:03Z) - BitPruning: Learning Bitlengths for Aggressive and Accurate Quantization [57.14179747713731]
精度を維持しつつ,任意の粒度で推論ビット長を最小化するためのトレーニング手法を提案する。
ImageNetでは、平均4.13ビット、3.76ビット、4.36ビットを生成する。
論文 参考訳(メタデータ) (2020-02-08T04:58:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。