論文の概要: Transformer-based Hand Gesture Recognition via High-Density EMG Signals:
From Instantaneous Recognition to Fusion of Motor Unit Spike Trains
- arxiv url: http://arxiv.org/abs/2212.00743v1
- Date: Tue, 29 Nov 2022 23:32:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 17:42:00.072780
- Title: Transformer-based Hand Gesture Recognition via High-Density EMG Signals:
From Instantaneous Recognition to Fusion of Motor Unit Spike Trains
- Title(参考訳): トランスフォーマーを用いた高密度EMG信号による手指ジェスチャー認識:瞬時認識からモータスパイクの融合へ
- Authors: Mansooreh Montazerin, Elahe Rahimian, Farnoosh Naderkhani, S. Farokh
Atashzar, Svetlana Yanushkevich, Arash Mohammadi
- Abstract要約: 本稿では,視覚変換器ネットワークを用いて手動ジェスチャー認識を行うCT-HGRと呼ばれる,コンパクトなディープラーニングフレームワークを提案する。
CT-HGRは、転送学習を必要とせずにゼロからトレーニングすることができ、HD-sEMGデータの時間的特徴と空間的特徴を同時に抽出することができる。
このフレームワークは、HD-sEMG画像の単一のフレームに基づいて、瞬時認識のための89.13%の精度を達成する。
- 参考スコア(独自算出の注目度): 11.443553761853856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing efficient and labor-saving prosthetic hands requires powerful hand
gesture recognition algorithms that can achieve high accuracy with limited
complexity and latency. In this context, the paper proposes a compact deep
learning framework referred to as the CT-HGR, which employs a vision
transformer network to conduct hand gesture recognition using highdensity sEMG
(HD-sEMG) signals. The attention mechanism in the proposed model identifies
similarities among different data segments with a greater capacity for parallel
computations and addresses the memory limitation problems while dealing with
inputs of large sequence lengths. CT-HGR can be trained from scratch without
any need for transfer learning and can simultaneously extract both temporal and
spatial features of HD-sEMG data. Additionally, the CT-HGR framework can
perform instantaneous recognition using sEMG image spatially composed from
HD-sEMG signals. A variant of the CT-HGR is also designed to incorporate
microscopic neural drive information in the form of Motor Unit Spike Trains
(MUSTs) extracted from HD-sEMG signals using Blind Source Separation (BSS).
This variant is combined with its baseline version via a hybrid architecture to
evaluate potentials of fusing macroscopic and microscopic neural drive
information. The utilized HD-sEMG dataset involves 128 electrodes that collect
the signals related to 65 isometric hand gestures of 20 subjects. The proposed
CT-HGR framework is applied to 31.25, 62.5, 125, 250 ms window sizes of the
above-mentioned dataset utilizing 32, 64, 128 electrode channels. The average
accuracy over all the participants using 32 electrodes and a window size of
31.25 ms is 86.23%, which gradually increases till reaching 91.98% for 128
electrodes and a window size of 250 ms. The CT-HGR achieves accuracy of 89.13%
for instantaneous recognition based on a single frame of HD-sEMG image.
- Abstract(参考訳): 効率的で省力な義手の設計には、複雑さとレイテンシを限定した高精度なハンドジェスチャ認識アルゴリズムが必要である。
本稿では,高密度sEMG(HD-sEMG)信号を用いた手動ジェスチャー認識を実現するために,視覚変換器ネットワークを用いたCT-HGRと呼ばれる,コンパクトなディープラーニングフレームワークを提案する。
提案モデルにおけるアテンション機構は、並列計算のキャパシティが大きいデータセグメント間の類似性を識別し、大きなシーケンス長の入力を処理しながらメモリ制限問題に対処する。
CT-HGRは、転送学習を必要とせずにゼロからトレーニングすることができ、HD-sEMGデータの時間的特徴と空間的特徴を同時に抽出することができる。
さらに、CT-HGRフレームワークは、HD-SEMG信号から空間的に構成されたsEMG画像を用いて瞬時認識を行うことができる。
CT-HGRの変種は、Blind Source separation (BSS) を用いてHD-sEMG信号から抽出されたモータユニットスパイクトレイン(MUST)の形で、顕微鏡的なニューラルドライブ情報を組み込むように設計されている。
この変種は、マクロとミクロのニューラルドライブ情報を融合する可能性を評価するために、ハイブリッドアーキテクチャによるベースラインバージョンと組み合わせられている。
使用したHD-sEMGデータセットは、被験者20人の65の等尺手ジェスチャーに関連する信号を収集する128個の電極を含む。
提案したCT-HGRフレームワークは,32,64,128個の電極チャネルを用いて,上記データセットの窓サイズを31.25,62.5,125,250msとする。
32個の電極を使用し、窓サイズ31.25 msの全ての被験者の平均精度は86.23%であり、128個の電極で91.98%に達するまで徐々に増加し、窓サイズ250 msとなる。
関連論文リスト
- emg2qwerty: A Large Dataset with Baselines for Touch Typing using Surface Electromyography [47.160223334501126]
emg2qwertyは、QWERTYキーボードでタッチ入力しながら手首に記録された非侵襲的筋電図信号の大規模なデータセットである。
1,135のセッションが108ユーザと346時間の録画にまたがっており、これまでで最大の公開データセットである。
sEMG信号のみを用いたキープレッシャの予測において,高いベースライン性能を示す。
論文 参考訳(メタデータ) (2024-10-26T05:18:48Z) - Learning Brain Tumor Representation in 3D High-Resolution MR Images via Interpretable State Space Models [42.55786269051626]
本稿では,高解像度データを効率的に処理するために,ViTライクなモデルを拡張した新しい状態空間モデル (SSM) ベースのマスク付きオートエンコーダを提案する。
本稿では,入力ボリューム内の特定の領域に対応する潜時特徴の直接可視化を可能にする潜時空間マッピング手法を提案する。
本結果は,SSMに基づく自己教師型学習が,効率と解釈可能性を組み合わせた放射能解析を変換する可能性を強調した。
論文 参考訳(メタデータ) (2024-09-12T04:36:50Z) - Multi-view Hybrid Graph Convolutional Network for Volume-to-mesh Reconstruction in Cardiovascular MRI [43.47826598981827]
画像間直接抽出のための新しいアーキテクチャであるHybridVNetを紹介する。
グラフ構造として符号化することで,表面および体積メッシュを効率的に処理できることを示す。
我々のモデルは、従来の畳み込みネットワークと変分グラフ生成モデル、深い監督とメッシュ固有の正規化を組み合わせたものです。
論文 参考訳(メタデータ) (2023-11-22T21:51:29Z) - From Unimodal to Multimodal: improving sEMG-Based Pattern Recognition
via deep generative models [1.1477981286485912]
マルチモーダルハンドジェスチャ認識(HGR)システムは,HGRシステムと比較して高い認識精度を実現することができる。
本稿では,仮想慣性計測ユニット(IMU)信号を用いた表面筋電図(sEMG)に基づくHGRの精度向上のための新しい生成手法を提案する。
論文 参考訳(メタデータ) (2023-08-08T07:15:23Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Brain Imaging-to-Graph Generation using Adversarial Hierarchical Diffusion Models for MCI Causality Analysis [44.45598796591008]
機能的磁気共鳴画像(fMRI)を軽度認知障害解析のための効果的な接続性にマッピングするために,脳画像から画像へのBIGG(Brain Imaging-to-graph generation)フレームワークを提案する。
発電機の階層変換器は、複数のスケールでノイズを推定するように設計されている。
ADNIデータセットの評価は,提案モデルの有効性と有効性を示す。
論文 参考訳(メタデータ) (2023-05-18T06:54:56Z) - HYDRA-HGR: A Hybrid Transformer-based Architecture for Fusion of
Macroscopic and Microscopic Neural Drive Information [11.443553761853856]
本研究では,顕微鏡レベルで時間的特徴と空間的特徴のセットを同時に抽出するハイブリッドモデルを提案する。
提案したHYDRA-HGRフレームワークは平均94.86%の精度で250ミリ秒のウィンドウサイズを実現している。
論文 参考訳(メタデータ) (2022-10-27T02:23:27Z) - Light-weighted CNN-Attention based architecture for Hand Gesture
Recognition via ElectroMyography [19.51045409936039]
畳み込みニューラルネットワーク(CNN)とアテンション機構に基づく軽量ハイブリッドアーキテクチャ(HDCAM)を提案する。
58,441個のパラメータを持つHDCAMモデルは、新しい最先端(SOTA)性能を82.91%、ウィンドウサイズが300msと200msの精度で達成した。
論文 参考訳(メタデータ) (2022-10-27T02:12:07Z) - ViT-HGR: Vision Transformer-based Hand Gesture Recognition from High
Density Surface EMG Signals [14.419091034872682]
本研究では,高密度(HD-sEMG)信号から手動ジェスチャー認識を行う視覚変換器(ViT)アーキテクチャについて検討・設計する。
提案したViT-HGRフレームワークは,トレーニング時間の問題を克服し,多数の手の動きをスクラッチから正確に分類することができる。
64サンプル (31.25 ms) の窓サイズ実験では, 平均テスト精度は84.62 +/-3.07%であり, 78, 210個のパラメータしか利用していない。
論文 参考訳(メタデータ) (2022-01-25T02:42:50Z) - Hand Gesture Recognition Using Temporal Convolutions and Attention
Mechanism [16.399230849853915]
本稿では,この計算負担を軽減するため,時間的畳み込みに基づくハンドジェスチャ認識アーキテクチャ(TC-HGR)を提案する。
表面筋電図(SEMG)信号による手指動作の分類には,注意機構と時間的畳み込みを応用した。
提案手法は,それぞれ300ms,200msのウィンドウサイズに対して81.65%,80.72%の分類精度が得られた。
論文 参考訳(メタデータ) (2021-10-17T04:23:59Z) - High speed microcircuit and synthetic biosignal widefield imaging using
nitrogen vacancies in diamond [44.62475518267084]
微視的リソグラフィーパターン回路からの信号をマイクロメートルスケールで画像化する方法を示す。
新しいタイプのロックインアンプカメラを用いて、交流信号とパルス電流信号の空間的回復を1ミリ秒以下で実証する。
最後に,生体神経ネットワークにおける信号の正確な形状を再現した合成信号の回復の原理を実証する。
論文 参考訳(メタデータ) (2021-07-29T16:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。