論文の概要: Masked Autoencoder with Swin Transformer Network for Mitigating Electrode Shift in HD-EMG-based Gesture Recognition
- arxiv url: http://arxiv.org/abs/2410.17261v1
- Date: Mon, 07 Oct 2024 02:55:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-27 05:40:41.190343
- Title: Masked Autoencoder with Swin Transformer Network for Mitigating Electrode Shift in HD-EMG-based Gesture Recognition
- Title(参考訳): HD-EMGを用いたジェスチャー認識における電極シフトの緩和のためのスウィントランスネットワークを用いたマスク付きオートエンコーダ
- Authors: Kasra Laamerad, Mehran Shabanpour, Md. Rabiul Islam, Arash Mohammadi,
- Abstract要約: HD-sEMGに基づくパターン認識モデルは、記録条件の変化に対して脆弱である。
本稿では,Masked Autoencoder with Swin Transformer (MAST)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.19619911492252
- License:
- Abstract: Multi-channel surface Electromyography (sEMG), also referred to as high-density sEMG (HD-sEMG), plays a crucial role in improving gesture recognition performance for myoelectric control. Pattern recognition models developed based on HD-sEMG, however, are vulnerable to changing recording conditions (e.g., signal variability due to electrode shift). This has resulted in significant degradation in performance across subjects, and sessions. In this context, the paper proposes the Masked Autoencoder with Swin Transformer (MAST) framework, where training is performed on a masked subset of HDsEMG channels. A combination of four masking strategies, i.e., random block masking; temporal masking; sensor-wise random masking, and; multi-scale masking, is used to learn latent representations and increase robustness against electrode shift. The masked data is then passed through MAST's three-path encoder-decoder structure, leveraging a multi-path Swin-Unet architecture that simultaneously captures time-domain, frequency-domain, and magnitude-based features of the underlying HD-sEMG signal. These augmented inputs are then used in a self-supervised pre-training fashion to improve the model's generalization capabilities. Experimental results demonstrate the superior performance of the proposed MAST framework in comparison to its counterparts.
- Abstract(参考訳): 高密度sEMG(HD-sEMG)とも呼ばれる多チャンネル表面筋電図は、筋電制御におけるジェスチャー認識性能の向上に重要な役割を果たしている。
しかし、HD-sEMGに基づいて開発されたパターン認識モデルは、記録条件の変化(例えば、電極シフトによる信号の変動)に対して脆弱である。
この結果、被験者やセッション間でパフォーマンスが大幅に低下した。
そこで本稿では,HDsEMGチャネルのマスク付きサブセット上でトレーニングを行うMasked Autoencoder with Swin Transformer (MAST)フレームワークを提案する。
ランダム・ブロック・マスキング(ランダム・ブロック・マスキング)、テンポラル・マスキング(テンポラル・マスキング)、センサワイド・ランダム・マスキング(センサーワイド・マスキング)、マルチスケール・マスキング(マルチスケール・マスキング)という4つのマスキング戦略の組み合わせは、潜在表現を学習し、電極シフトに対する堅牢性を高めるために用いられる。
マスクされたデータは、MASTの3パスエンコーダ・デコーダ構造に渡され、マルチパスSwin-Unetアーキテクチャを利用して、基礎となるHD-sEMG信号の時間領域、周波数領域、等級に基づく特徴を同時にキャプチャする。
これらの拡張入力は、モデルの一般化能力を改善するために、自己教師付き事前学習方式で使用される。
実験の結果,提案したMASTフレームワークの性能は,MASTフレームワークと比較して優れていた。
関連論文リスト
- Spatial Adaptation Layer: Interpretable Domain Adaptation For Biosignal Sensor Array Applications [0.7499722271664147]
バイオ署名の買収は、医療アプリケーションやウェアラブルデバイスにとって鍵となる。
既存のソリューションは、しばしば大規模で高価なデータセットを必要とする。
本稿では,任意の生体信号配列モデルに適応可能な空間適応層(SAL)を提案する。
また,学習可能なベースライン正規化(LBN)を導入し,ベースライン変動を低減する。
論文 参考訳(メタデータ) (2024-09-12T14:06:12Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - MDT-A2G: Exploring Masked Diffusion Transformers for Co-Speech Gesture Generation [44.74056930805525]
MDT-A2Gと呼ばれる音声合成のための新しいMasked Diffusion Transformerを提案する。
このモデルは、シーケンスジェスチャ間の時間的関係学習を強化するために特別に設計されたマスクモデリングスキームを用いる。
実験の結果,MDT-A2Gはジェスチャ生成に優れ,従来の拡散変圧器よりも6ドル以上高速な学習速度を有することがわかった。
論文 参考訳(メタデータ) (2024-08-06T17:29:01Z) - Bringing Masked Autoencoders Explicit Contrastive Properties for Point Cloud Self-Supervised Learning [116.75939193785143]
画像領域における視覚変換器(ViT)のコントラスト学習(CL)は、従来の畳み込みバックボーンのCLに匹敵する性能を達成した。
ViTで事前訓練した3Dポイントクラウドでは、マスク付きオートエンコーダ(MAE)モデリングが主流である。
論文 参考訳(メタデータ) (2024-07-08T12:28:56Z) - Adversarial Masking Contrastive Learning for vein recognition [10.886119051977785]
ベイン認識は、セキュリティとプライバシーの高さから注目を集めている。
静脈認識のために、畳み込みニューラルネットワーク(CNN)やトランスフォーマーのようなディープニューラルネットワークが導入されている。
近年の進歩にもかかわらず、画像サンプルの不足のため、指先の特徴抽出のための既存のソリューションはまだ最適ではない。
論文 参考訳(メタデータ) (2024-01-16T03:09:45Z) - Tackling Electrode Shift In Gesture Recognition with HD-EMG Electrode
Subsets [0.8192907805418583]
入力チャネルサブセットの集合に関するトレーニングを提案し、異なる電極位置のデータを用いてトレーニング分布を増強する。
本手法は,電極シフトに対するロバスト性を高め,被検体と分類アルゴリズム間の干渉性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-05T12:13:00Z) - Masked Motion Predictors are Strong 3D Action Representation Learners [143.9677635274393]
人間の3次元行動認識では、教師付きデータが限られており、トランスフォーマーのような強力なネットワークのモデリング能力を十分に活用することは困難である。
人間の関節において、マスク付き自己成分再構成を行うための一般的な前提に従わず、明示的な文脈運動モデリングが、3次元動作認識のための効果的な特徴表現の学習の成功の鍵となることを示す。
論文 参考訳(メタデータ) (2023-08-14T11:56:39Z) - Calibrated Hyperspectral Image Reconstruction via Graph-based
Self-Tuning Network [40.71031760929464]
ハイパースペクトルイメージング(HSI)は、特に符号化スナップショット分光イメージング(CASSI)システムに基づく画像に対して、研究の注目を集めている。
既存の深いHSI再構成モデルは、CASSIの特定の光学ハードウェアマスクが与える2次元圧縮計測に基づいて元の信号を取得するために、ペアデータで訓練される。
このマスク固有のトレーニングスタイルは、ハードウェアの誤校正問題を引き起こし、異なるハードウェアとノイズの多い環境間で深いHSIモデルをデプロイする障壁を設定できる。
マスクの空間構造の変化に適応する不確実性を推論するグラフベース自己調整(GST)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-12-31T09:39:13Z) - Mask-guided Spectral-wise Transformer for Efficient Hyperspectral Image
Reconstruction [127.20208645280438]
ハイパースペクトル画像(HSI)再構成は、2次元計測から3次元空間スペクトル信号を復元することを目的としている。
スペクトル間相互作用のモデル化は、HSI再構成に有用である。
Mask-guided Spectral-wise Transformer (MST) は,HSI再構成のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-15T16:59:48Z) - TransRPPG: Remote Photoplethysmography Transformer for 3D Mask Face
Presentation Attack Detection [53.98866801690342]
3次元マスク提示攻撃検出(PAD)は、3次元マスク攻撃から顔認識システムを保護する上で重要な役割を担っている。
ライブ本質表現を効率的に学習するための純粋なrトランス(TransR)フレームワークを提案する。
当社のTransRは軽量で効率的(547Kパラメータと763MOPのみ)で、モバイルレベルのアプリケーションに期待できる。
論文 参考訳(メタデータ) (2021-04-15T12:33:13Z) - Mask Attention Networks: Rethinking and Strengthen Transformer [70.95528238937861]
Transformerは、セルフアテンションネットワーク(SAN)とフィードフォワードネットワーク(FFN)の2つのサブレイヤからなる注目ベースのニューラルネットワークです。
論文 参考訳(メタデータ) (2021-03-25T04:07:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。