論文の概要: Bioformers: Embedding Transformers for Ultra-Low Power sEMG-based
Gesture Recognition
- arxiv url: http://arxiv.org/abs/2203.12932v1
- Date: Thu, 24 Mar 2022 08:37:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 21:38:17.960708
- Title: Bioformers: Embedding Transformers for Ultra-Low Power sEMG-based
Gesture Recognition
- Title(参考訳): バイオフォーマー:超低消費電力sEMGを用いたジェスチャー認識のための埋め込みトランス
- Authors: Alessio Burrello, Francesco Bianco Morghet, Moritz Scherer, Simone
Benatti, Luca Benini, Enrico Macii, Massimo Poncino, Daniele Jahier Pagliari
- Abstract要約: 人間と機械の相互作用は、義手やロボットアームの制御など、リハビリ作業において勢いを増している。
表面筋電図(sEMG)信号を利用したジェスチャー認識は最も有望なアプローチの一つである。
しかし、同様のジェスチャーが同様の筋収縮をもたらすため、これらの信号の分析は依然として多くの課題を呈している。
- 参考スコア(独自算出の注目度): 21.486555297061717
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Human-machine interaction is gaining traction in rehabilitation tasks, such
as controlling prosthetic hands or robotic arms. Gesture recognition exploiting
surface electromyographic (sEMG) signals is one of the most promising
approaches, given that sEMG signal acquisition is non-invasive and is directly
related to muscle contraction. However, the analysis of these signals still
presents many challenges since similar gestures result in similar muscle
contractions. Thus the resulting signal shapes are almost identical, leading to
low classification accuracy. To tackle this challenge, complex neural networks
are employed, which require large memory footprints, consume relatively high
energy and limit the maximum battery life of devices used for classification.
This work addresses this problem with the introduction of the Bioformers. This
new family of ultra-small attention-based architectures approaches
state-of-the-art performance while reducing the number of parameters and
operations of 4.9X. Additionally, by introducing a new inter-subjects
pre-training, we improve the accuracy of our best Bioformer by 3.39%, matching
state-of-the-art accuracy without any additional inference cost. Deploying our
best performing Bioformer on a Parallel, Ultra-Low Power (PULP) microcontroller
unit (MCU), the GreenWaves GAP8, we achieve an inference latency and energy of
2.72 ms and 0.14 mJ, respectively, 8.0X lower than the previous
state-of-the-art neural network, while occupying just 94.2 kB of memory.
- Abstract(参考訳): 人間と機械の相互作用は、義手やロボットアームの制御など、リハビリ作業で注目を集めている。
表面筋電図(sEMG)信号を利用したジェスチャー認識は、筋収縮に直接関連しているため、最も有望なアプローチの一つである。
しかし、同様のジェスチャーが筋収縮をもたらすため、これらの信号の分析には多くの課題が残されている。
したがって、信号の形状はほぼ同じであり、分類精度は低い。
この課題に取り組むために、大きなメモリフットプリントを必要とする複雑なニューラルネットワークが採用され、比較的高いエネルギーを消費し、分類に使用するデバイスの最大バッテリ寿命を制限している。
この研究はバイオフォーマーの導入によってこの問題に対処する。
この新しいファミリは4.9Xのパラメータと演算数を減らしながら最先端の性能にアプローチする。
さらに,新たなサブジェクト間事前学習を導入することで,新たな推論コストを必要とせず,最高のバイオフォーマーの精度を3.39%向上させる。
並列・超低消費電力(pulp)マイクロコントローラユニット(mcu)とグリーンウェーブギャップ8(greenwaves gap8)に最も高性能なバイオフォーマーを配置することで、推論レイテンシとエネルギーを2.72msと0.14mjで達成し、従来の最先端ニューラルネットワークよりも8.0倍低く、メモリは94.2kbに過ぎません。
関連論文リスト
- Spatial Adaptation Layer: Interpretable Domain Adaptation For Biosignal Sensor Array Applications [0.7499722271664147]
バイオ署名の買収は、医療アプリケーションやウェアラブルデバイスにとって鍵となる。
既存のソリューションは、しばしば大規模で高価なデータセットを必要とする。
本稿では,任意の生体信号配列モデルに適応可能な空間適応層(SAL)を提案する。
また,学習可能なベースライン正規化(LBN)を導入し,ベースライン変動を低減する。
論文 参考訳(メタデータ) (2024-09-12T14:06:12Z) - Hybrid Spiking Neural Networks for Low-Power Intra-Cortical Brain-Machine Interfaces [42.72938925647165]
皮質内脳-機械界面(iBMI)は麻痺患者の生活を劇的に改善する可能性がある。
現在のiBMIは、ハードウェアと配線が大きすぎるため、スケーラビリティとモビリティの制限に悩まされている。
無線iBMIにおける組込みニューラルデコーディングのためのハイブリッドスパイキングニューラルネットワークについて検討している。
論文 参考訳(メタデータ) (2024-09-06T17:48:44Z) - MS-MANO: Enabling Hand Pose Tracking with Biomechanical Constraints [50.61346764110482]
筋骨格系と学習可能なパラメトリックハンドモデルMANOを統合し,MS-MANOを作成する。
このモデルは骨格系を駆動する筋肉と腱の力学をエミュレートし、結果として生じるトルク軌跡に生理学的に現実的な制約を与える。
また,マルチ層パーセプトロンネットワークによる初期推定ポーズを改良する,ループ式ポーズ改善フレームワークBioPRを提案する。
論文 参考訳(メタデータ) (2024-04-16T02:18:18Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - A Tiny Transformer for Low-Power Arrhythmia Classification on Microcontrollers [10.203375838335935]
心電図(ECG)信号のリアルタイム解析と不整脈などの心臓状態の検出に対する有望なアプローチは、トランスフォーマー機械学習モデルによって表現される。
我々は、MIT-BIH Arrhythmiaデータベースから最も一般的な5つの不整脈クラスを認識する際に、わずか6kパラメータしか必要とせず、98.97%の精度でECG信号を解析するための小さなトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-02-16T15:14:16Z) - Online Transformers with Spiking Neurons for Fast Prosthetic Hand
Control [1.6114012813668934]
本稿では,自己注意機構の代わりにスライディングウィンドウアテンション機構を用いる。
この機構は、入力とターゲット間の有限範囲依存性を持つ連続的な信号に対してより効率的であることを示す。
本研究の結果は,スムーズな義手制御のためのsEMG信号の正確かつ高速なオンライン処理を約束するものである。
論文 参考訳(メタデータ) (2023-03-21T13:59:35Z) - The Lazy Neuron Phenomenon: On Emergence of Activation Sparsity in
Transformers [59.87030906486969]
本稿では,Transformer アーキテクチャを用いた機械学習モデルにおいて,アクティベーションマップが疎いという興味深い現象について考察する。
本稿では, 自然言語処理と視覚処理の両方において, スパーシリティが顕著な現象であることを示す。
本稿では,変換器のFLOP数を大幅に削減し,効率を向上する手法について論じる。
論文 参考訳(メタデータ) (2022-10-12T15:25:19Z) - Multiple Time Series Fusion Based on LSTM An Application to CAP A Phase
Classification Using EEG [56.155331323304]
本研究では,深層学習に基づく脳波チャンネルの特徴レベル融合を行う。
チャネル選択,融合,分類手順を2つの最適化アルゴリズムで最適化した。
論文 参考訳(メタデータ) (2021-12-18T14:17:49Z) - SOUL: An Energy-Efficient Unsupervised Online Learning Seizure Detection
Classifier [68.8204255655161]
神経活動を記録して発作を検出するインプラントデバイスは、発作を抑えるために警告を発したり神経刺激を誘発したりするために採用されている。
移植可能な発作検出システムでは、低出力で最先端のオンライン学習アルゴリズムを使用して、神経信号のドリフトに動的に適応することができる。
SOULはTSMCの28nmプロセスで0.1mm2を占め、1.5nJ/分級エネルギー効率を実現した。
論文 参考訳(メタデータ) (2021-10-01T23:01:20Z) - Video-based Remote Physiological Measurement via Cross-verified Feature
Disentangling [121.50704279659253]
非生理的表現と生理的特徴を混同するための横断的特徴分離戦略を提案する。
次に, 蒸留された生理特性を用いて, 頑健なマルチタスク生理測定を行った。
歪んだ特徴は、最終的に平均HR値やr信号のような複数の生理的信号の合同予測に使用される。
論文 参考訳(メタデータ) (2020-07-16T09:39:17Z) - sEMG Gesture Recognition with a Simple Model of Attention [0.0]
表面筋電図(sEMG)信号の分類について述べる。
新たなアテンションベースモデルにより,複数の業界標準データセットのベンチマーク結果が得られた。
この結果から,sEMGは将来の機械学習研究の道のりとして有望であることが示唆された。
論文 参考訳(メタデータ) (2020-06-05T19:28:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。