論文の概要: Transformer-based Hand Gesture Recognition via High-Density EMG Signals:
From Instantaneous Recognition to Fusion of Motor Unit Spike Trains
- arxiv url: http://arxiv.org/abs/2212.00743v1
- Date: Tue, 29 Nov 2022 23:32:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 17:42:00.072780
- Title: Transformer-based Hand Gesture Recognition via High-Density EMG Signals:
From Instantaneous Recognition to Fusion of Motor Unit Spike Trains
- Title(参考訳): トランスフォーマーを用いた高密度EMG信号による手指ジェスチャー認識:瞬時認識からモータスパイクの融合へ
- Authors: Mansooreh Montazerin, Elahe Rahimian, Farnoosh Naderkhani, S. Farokh
Atashzar, Svetlana Yanushkevich, Arash Mohammadi
- Abstract要約: 本稿では,視覚変換器ネットワークを用いて手動ジェスチャー認識を行うCT-HGRと呼ばれる,コンパクトなディープラーニングフレームワークを提案する。
CT-HGRは、転送学習を必要とせずにゼロからトレーニングすることができ、HD-sEMGデータの時間的特徴と空間的特徴を同時に抽出することができる。
このフレームワークは、HD-sEMG画像の単一のフレームに基づいて、瞬時認識のための89.13%の精度を達成する。
- 参考スコア(独自算出の注目度): 11.443553761853856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing efficient and labor-saving prosthetic hands requires powerful hand
gesture recognition algorithms that can achieve high accuracy with limited
complexity and latency. In this context, the paper proposes a compact deep
learning framework referred to as the CT-HGR, which employs a vision
transformer network to conduct hand gesture recognition using highdensity sEMG
(HD-sEMG) signals. The attention mechanism in the proposed model identifies
similarities among different data segments with a greater capacity for parallel
computations and addresses the memory limitation problems while dealing with
inputs of large sequence lengths. CT-HGR can be trained from scratch without
any need for transfer learning and can simultaneously extract both temporal and
spatial features of HD-sEMG data. Additionally, the CT-HGR framework can
perform instantaneous recognition using sEMG image spatially composed from
HD-sEMG signals. A variant of the CT-HGR is also designed to incorporate
microscopic neural drive information in the form of Motor Unit Spike Trains
(MUSTs) extracted from HD-sEMG signals using Blind Source Separation (BSS).
This variant is combined with its baseline version via a hybrid architecture to
evaluate potentials of fusing macroscopic and microscopic neural drive
information. The utilized HD-sEMG dataset involves 128 electrodes that collect
the signals related to 65 isometric hand gestures of 20 subjects. The proposed
CT-HGR framework is applied to 31.25, 62.5, 125, 250 ms window sizes of the
above-mentioned dataset utilizing 32, 64, 128 electrode channels. The average
accuracy over all the participants using 32 electrodes and a window size of
31.25 ms is 86.23%, which gradually increases till reaching 91.98% for 128
electrodes and a window size of 250 ms. The CT-HGR achieves accuracy of 89.13%
for instantaneous recognition based on a single frame of HD-sEMG image.
- Abstract(参考訳): 効率的で省力な義手の設計には、複雑さとレイテンシを限定した高精度なハンドジェスチャ認識アルゴリズムが必要である。
本稿では,高密度sEMG(HD-sEMG)信号を用いた手動ジェスチャー認識を実現するために,視覚変換器ネットワークを用いたCT-HGRと呼ばれる,コンパクトなディープラーニングフレームワークを提案する。
提案モデルにおけるアテンション機構は、並列計算のキャパシティが大きいデータセグメント間の類似性を識別し、大きなシーケンス長の入力を処理しながらメモリ制限問題に対処する。
CT-HGRは、転送学習を必要とせずにゼロからトレーニングすることができ、HD-sEMGデータの時間的特徴と空間的特徴を同時に抽出することができる。
さらに、CT-HGRフレームワークは、HD-SEMG信号から空間的に構成されたsEMG画像を用いて瞬時認識を行うことができる。
CT-HGRの変種は、Blind Source separation (BSS) を用いてHD-sEMG信号から抽出されたモータユニットスパイクトレイン(MUST)の形で、顕微鏡的なニューラルドライブ情報を組み込むように設計されている。
この変種は、マクロとミクロのニューラルドライブ情報を融合する可能性を評価するために、ハイブリッドアーキテクチャによるベースラインバージョンと組み合わせられている。
使用したHD-sEMGデータセットは、被験者20人の65の等尺手ジェスチャーに関連する信号を収集する128個の電極を含む。
提案したCT-HGRフレームワークは,32,64,128個の電極チャネルを用いて,上記データセットの窓サイズを31.25,62.5,125,250msとする。
32個の電極を使用し、窓サイズ31.25 msの全ての被験者の平均精度は86.23%であり、128個の電極で91.98%に達するまで徐々に増加し、窓サイズ250 msとなる。
関連論文リスト
- Genetic InfoMax: Exploring Mutual Information Maximization in
High-Dimensional Imaging Genetics Studies [50.11449968854487]
遺伝子ワイド・アソシエーション(GWAS)は、遺伝的変異と特定の形質の関係を同定するために用いられる。
画像遺伝学の表現学習は、GWASによって引き起こされる固有の課題により、ほとんど探索されていない。
本稿では,GWAS の具体的な課題に対処するために,トランスモーダル学習フレームワーク Genetic InfoMax (GIM) を提案する。
論文 参考訳(メタデータ) (2023-09-26T03:59:21Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - From Unimodal to Multimodal: improving sEMG-Based Pattern Recognition
via deep generative models [1.1477981286485912]
マルチモーダルハンドジェスチャ認識(HGR)システムは,HGRシステムと比較して高い認識精度を実現することができる。
本稿では,仮想慣性計測ユニット(IMU)信号を用いた表面筋電図(sEMG)に基づくHGRの精度向上のための新しい生成手法を提案する。
論文 参考訳(メタデータ) (2023-08-08T07:15:23Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - HYDRA-HGR: A Hybrid Transformer-based Architecture for Fusion of
Macroscopic and Microscopic Neural Drive Information [11.443553761853856]
本研究では,顕微鏡レベルで時間的特徴と空間的特徴のセットを同時に抽出するハイブリッドモデルを提案する。
提案したHYDRA-HGRフレームワークは平均94.86%の精度で250ミリ秒のウィンドウサイズを実現している。
論文 参考訳(メタデータ) (2022-10-27T02:23:27Z) - Light-weighted CNN-Attention based architecture for Hand Gesture
Recognition via ElectroMyography [19.51045409936039]
畳み込みニューラルネットワーク(CNN)とアテンション機構に基づく軽量ハイブリッドアーキテクチャ(HDCAM)を提案する。
58,441個のパラメータを持つHDCAMモデルは、新しい最先端(SOTA)性能を82.91%、ウィンドウサイズが300msと200msの精度で達成した。
論文 参考訳(メタデータ) (2022-10-27T02:12:07Z) - Decision Forest Based EMG Signal Classification with Low Volume Dataset
Augmented with Random Variance Gaussian Noise [51.76329821186873]
我々は6種類の手振りを限定的なサンプル数で分類できるモデルを作成し、より広い聴衆によく一般化する。
信号のランダムなバウンドの使用など、より基本的な手法のセットにアピールするが、これらの手法がオンライン環境で持てる力を示したいと考えている。
論文 参考訳(メタデータ) (2022-06-29T23:22:18Z) - ViT-HGR: Vision Transformer-based Hand Gesture Recognition from High
Density Surface EMG Signals [14.419091034872682]
本研究では,高密度(HD-sEMG)信号から手動ジェスチャー認識を行う視覚変換器(ViT)アーキテクチャについて検討・設計する。
提案したViT-HGRフレームワークは,トレーニング時間の問題を克服し,多数の手の動きをスクラッチから正確に分類することができる。
64サンプル (31.25 ms) の窓サイズ実験では, 平均テスト精度は84.62 +/-3.07%であり, 78, 210個のパラメータしか利用していない。
論文 参考訳(メタデータ) (2022-01-25T02:42:50Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Hand Gesture Recognition Using Temporal Convolutions and Attention
Mechanism [16.399230849853915]
本稿では,この計算負担を軽減するため,時間的畳み込みに基づくハンドジェスチャ認識アーキテクチャ(TC-HGR)を提案する。
表面筋電図(SEMG)信号による手指動作の分類には,注意機構と時間的畳み込みを応用した。
提案手法は,それぞれ300ms,200msのウィンドウサイズに対して81.65%,80.72%の分類精度が得られた。
論文 参考訳(メタデータ) (2021-10-17T04:23:59Z) - Statistical control for spatio-temporal MEG/EEG source imaging with
desparsified multi-task Lasso [102.84915019938413]
脳磁図(MEG)や脳電図(EEG)のような非侵襲的手法は、非侵襲的手法を約束する。
ソースローカライゼーション(ソースイメージング)の問題は、しかしながら、高次元の統計的推測問題を引き起こす。
この問題に対処するために,分離されたマルチタスクラッソ(ecd-MTLasso)のアンサンブルを提案する。
論文 参考訳(メタデータ) (2020-09-29T21:17:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。