論文の概要: EMGTFNet: Fuzzy Vision Transformer to decode Upperlimb sEMG signals for
Hand Gestures Recognition
- arxiv url: http://arxiv.org/abs/2310.03754v1
- Date: Sat, 23 Sep 2023 18:55:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-15 14:59:20.879650
- Title: EMGTFNet: Fuzzy Vision Transformer to decode Upperlimb sEMG signals for
Hand Gestures Recognition
- Title(参考訳): EMGTFNet:手指認識のための上肢sEMG信号をデコードするファジィビジョン変換器
- Authors: Joseph Cherre C\'ordova, Christian Flores, Javier Andreu-Perez
- Abstract要約: 本稿では,手動ジェスチャー認識を行うために,EMGTFNetと呼ばれるファジィニューラルブロック(FNB)を用いた視覚変換器(ViT)アーキテクチャを提案する。
提案モデルの精度は49種類の手ジェスチャーからなるNinaProデータベースを用いて検証した。
- 参考スコア(独自算出の注目度): 0.1611401281366893
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Myoelectric control is an area of electromyography of increasing interest
nowadays, particularly in applications such as Hand Gesture Recognition (HGR)
for bionic prostheses. Today's focus is on pattern recognition using Machine
Learning and, more recently, Deep Learning methods. Despite achieving good
results on sparse sEMG signals, the latter models typically require large
datasets and training times. Furthermore, due to the nature of stochastic sEMG
signals, traditional models fail to generalize samples for atypical or noisy
values. In this paper, we propose the design of a Vision Transformer (ViT)
based architecture with a Fuzzy Neural Block (FNB) called EMGTFNet to perform
Hand Gesture Recognition from surface electromyography (sEMG) signals. The
proposed EMGTFNet architecture can accurately classify a variety of hand
gestures without any need for data augmentation techniques, transfer learning
or a significant increase in the number of parameters in the network. The
accuracy of the proposed model is tested using the publicly available NinaPro
database consisting of 49 different hand gestures. Experiments yield an average
test accuracy of 83.57\% \& 3.5\% using a 200 ms window size and only 56,793
trainable parameters. Our results outperform the ViT without FNB, thus
demonstrating that including FNB improves its performance. Our proposal
framework EMGTFNet reported the significant potential for its practical
application for prosthetic control.
- Abstract(参考訳): 筋電制御は、特に生体補綴用ハンドジェスチャ認識(HGR)などの応用において、近年関心が高まっている筋電図の領域である。
今日の焦点は、機械学習と最近ではディープラーニング手法を用いたパターン認識である。
スパースsEMG信号の良好な結果にもかかわらず、後者のモデルは一般的に大きなデータセットとトレーニング時間を必要とする。
さらに、確率的sEMG信号の性質から、従来のモデルは非定型値や雑音値のサンプルの一般化に失敗した。
本稿では、表面筋電図(sEMG)信号から手動ジェスチャー認識を行うために、EMTFNetと呼ばれるファジィニューラルブロック(FNB)を用いた視覚変換器(ViT)アーキテクチャの設計を提案する。
提案したEMGTFNetアーキテクチャは,データ拡張技術や転送学習,ネットワーク内のパラメータ数の大幅な増加を必要とせずに,さまざまなハンドジェスチャを正確に分類することができる。
提案モデルの精度は49種類の手ジェスチャーからなるNinaProデータベースを用いて検証した。
実験では、平均テスト精度は 83.57\% \& 3.5\% であり、200 ms のウィンドウサイズと56,793 のトレーニング可能なパラメータしか持たない。
その結果,FNBを含まないViTでは,FNBを含まないと性能が向上することがわかった。
提案フレームワークであるEMGTFNetは,義肢制御のための実用的応用の可能性について報告した。
関連論文リスト
- emg2qwerty: A Large Dataset with Baselines for Touch Typing using Surface Electromyography [47.160223334501126]
emg2qwertyは、QWERTYキーボードでタッチ入力しながら手首に記録された非侵襲的筋電図信号の大規模なデータセットである。
1,135のセッションが108ユーザと346時間の録画にまたがっており、これまでで最大の公開データセットである。
sEMG信号のみを用いたキープレッシャの予測において,高いベースライン性能を示す。
論文 参考訳(メタデータ) (2024-10-26T05:18:48Z) - FORS-EMG: A Novel sEMG Dataset for Hand Gesture Recognition Across Multiple Forearm Orientations [1.3852370777848657]
表面筋電図(sEMG)信号はジェスチャー認識と頑健な義手発達に重要な可能性を秘めている。
本研究は、3つの異なる方向をまたいだ手の動きを評価するための新しいMFI sEMGデータセットを提案する。
論文 参考訳(メタデータ) (2024-09-03T14:23:06Z) - An LSTM Feature Imitation Network for Hand Movement Recognition from sEMG Signals [2.632402517354116]
我々は,Ninapro DB2上の300ms信号ウィンドウ上での閉形式時間特徴学習にFIN(Feature-imitating Network)を適用することを提案する。
次に、下流手の動き認識タスクに事前学習したLSTM-FINを適用して、転送学習機能について検討する。
論文 参考訳(メタデータ) (2024-05-23T21:45:15Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Pretraining Without Attention [114.99187017618408]
本研究では、状態空間モデル(SSM)に基づくシーケンスルーティングの最近の進歩を利用して、注意を払わずに事前学習を探索する。
BiGS は GLUE 上で BERT の事前トレーニング精度と一致し、近似なしで 4096 トークンの長期事前トレーニングに拡張できる。
論文 参考訳(メタデータ) (2022-12-20T18:50:08Z) - Light-weighted CNN-Attention based architecture for Hand Gesture
Recognition via ElectroMyography [19.51045409936039]
畳み込みニューラルネットワーク(CNN)とアテンション機構に基づく軽量ハイブリッドアーキテクチャ(HDCAM)を提案する。
58,441個のパラメータを持つHDCAMモデルは、新しい最先端(SOTA)性能を82.91%、ウィンドウサイズが300msと200msの精度で達成した。
論文 参考訳(メタデータ) (2022-10-27T02:12:07Z) - Signal Detection in MIMO Systems with Hardware Imperfections: Message
Passing on Neural Networks [101.59367762974371]
本稿では,Multi-Input-multiple-output (MIMO)通信システムにおける信号検出について検討する。
パイロット信号が限られているディープニューラルネットワーク(DNN)のトレーニングは困難であり、実用化を妨げている。
我々は、ユニタリ近似メッセージパッシング(UAMP)アルゴリズムを利用して、効率的なメッセージパッシングに基づくベイズ信号検出器を設計する。
論文 参考訳(メタデータ) (2022-10-08T04:32:58Z) - Decision Forest Based EMG Signal Classification with Low Volume Dataset
Augmented with Random Variance Gaussian Noise [51.76329821186873]
我々は6種類の手振りを限定的なサンプル数で分類できるモデルを作成し、より広い聴衆によく一般化する。
信号のランダムなバウンドの使用など、より基本的な手法のセットにアピールするが、これらの手法がオンライン環境で持てる力を示したいと考えている。
論文 参考訳(メタデータ) (2022-06-29T23:22:18Z) - ViT-HGR: Vision Transformer-based Hand Gesture Recognition from High
Density Surface EMG Signals [14.419091034872682]
本研究では,高密度(HD-sEMG)信号から手動ジェスチャー認識を行う視覚変換器(ViT)アーキテクチャについて検討・設計する。
提案したViT-HGRフレームワークは,トレーニング時間の問題を克服し,多数の手の動きをスクラッチから正確に分類することができる。
64サンプル (31.25 ms) の窓サイズ実験では, 平均テスト精度は84.62 +/-3.07%であり, 78, 210個のパラメータしか利用していない。
論文 参考訳(メタデータ) (2022-01-25T02:42:50Z) - TEMGNet: Deep Transformer-based Decoding of Upperlimb sEMG for Hand
Gestures Recognition [16.399230849853915]
本研究では,SEMG信号を処理するためのTransformerアーキテクチャに基づくフレームワークを開発する。
上肢のジェスチャーを分類・認識するための新しい視覚変換器(ViT)ベースのニューラルネットワークアーキテクチャ(TEMGNet)を提案する。
論文 参考訳(メタデータ) (2021-09-25T15:03:22Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。