論文の概要: Time2Vec Transformer for Robust Gesture Recognition from Low-Density sEMG
- arxiv url: http://arxiv.org/abs/2602.01855v2
- Date: Tue, 03 Feb 2026 13:09:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 13:28:03.730649
- Title: Time2Vec Transformer for Robust Gesture Recognition from Low-Density sEMG
- Title(参考訳): 低密度sEMGによるロバストジェスチャー認識のためのTime2Vec変換器
- Authors: Blagoj Hristov, Hristijan Gjoreski, Vesna Ojleska Latkoska, Gorjan Nadzinski,
- Abstract要約: 本稿では筋電義手制御のための新しい,データ効率の高いディープラーニングフレームワークを提案する。
提案手法は, スパース2チャネル表面筋電図(sEMG)に最適化されたハイブリッドトランスフォーマーの実装である。
提案するフレームワークは, 迅速なパーソナライズが可能な次世代人工装具の堅牢で費用対効果の高い青写真を提供する。
- 参考スコア(独自算出の注目度): 1.231764991565978
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate and responsive myoelectric prosthesis control typically relies on complex, dense multi-sensor arrays, which limits consumer accessibility. This paper presents a novel, data-efficient deep learning framework designed to achieve precise and accurate control using minimal sensor hardware. Leveraging an external dataset of 8 subjects, our approach implements a hybrid Transformer optimized for sparse, two-channel surface electromyography (sEMG). Unlike standard architectures that use fixed positional encodings, we integrate Time2Vec learnable temporal embeddings to capture the stochastic temporal warping inherent in biological signals. Furthermore, we employ a normalized additive fusion strategy that aligns the latent distributions of spatial and temporal features, preventing the destructive interference common in standard implementations. A two-stage curriculum learning protocol is utilized to ensure robust feature extraction despite data scarcity. The proposed architecture achieves a state-of-the-art multi-subject F1-score of 95.7% $\pm$ 0.20% for a 10-class movement set, statistically outperforming both a standard Transformer with fixed encodings and a recurrent CNN-LSTM model. Architectural optimization reveals that a balanced allocation of model capacity between spatial and temporal dimensions yields the highest stability. Furthermore, while direct transfer to a new unseen subject led to poor accuracy due to domain shifts, a rapid calibration protocol utilizing only two trials per gesture recovered performance from 21.0% $\pm$ 2.98% to 96.9% $\pm$ 0.52%. By validating that high-fidelity temporal embeddings can compensate for low spatial resolution, this work challenges the necessity of high-density sensing. The proposed framework offers a robust, cost-effective blueprint for next-generation prosthetic interfaces capable of rapid personalization.
- Abstract(参考訳): 正確な応答性筋電義肢制御は、消費者のアクセシビリティを制限する複雑で高密度なマルチセンサーアレイに依存するのが一般的である。
本稿では,最小限のセンサハードウェアを用いた高精度かつ高精度な制御を実現するための,データ効率の高い新しいディープラーニングフレームワークを提案する。
提案手法は,8被験者の外部データセットを活用し,スパース2チャンネル表面筋電図(sEMG)に最適化されたハイブリッドトランスフォーマーを実装した。
固定位置符号化を用いる標準的なアーキテクチャとは異なり、生体信号に固有の確率的時間変化を捉えるために、Time2Vec学習可能な時間埋め込みを統合する。
さらに,空間的特徴と時間的特徴の潜伏分布を整列させる正規化加法的融合戦略を採用し,標準実装に共通する破壊的干渉を防止する。
データ不足にもかかわらず、ロバストな特徴抽出を確保するために、2段階のカリキュラム学習プロトコルが使用される。
提案アーキテクチャは,10種類の移動集合に対して95.7%$\pm$ 0.20%の最先端のマルチオブジェクトF1スコアを実現し,固定符号付き標準トランスフォーマーと繰り返しCNN-LSTMモデルの両方を統計的に上回っている。
構造最適化は、空間次元と時間次元の間のモデルのキャパシティのバランスの取れた割り当てが、最も高い安定性をもたらすことを明らかにしている。
さらに、新しい未確認領域への直接転送はドメインシフトによる精度の低下につながったが、ジェスチャ毎の2トライアルしか利用していない迅速な校正プロトコルは、21.0%$\pm$2.98%から96.9%$\pm$0.52%に回復した。
高忠実度時間埋め込みが低空間分解能を補うことを検証することにより、高密度センシングの必要性に挑戦する。
提案するフレームワークは, 迅速なパーソナライズが可能な次世代人工装具の堅牢で費用対効果の高い青写真を提供する。
関連論文リスト
- Leveraging Convolutional Sparse Autoencoders for Robust Movement Classification from Low-Density sEMG [0.46976113832881716]
本研究では,2つの表面筋電図(sEMG)チャネルのみを用いた正確なジェスチャー認識のためのディープラーニングフレームワークを提案する。
最小限の校正データで35.1%$pm$3.1%から92.3%$pm$0.9%のベースラインから、未確認被験者のパフォーマンスを改善した数ショット転送学習プロトコルを提案する。
論文 参考訳(メタデータ) (2026-01-30T14:21:46Z) - HCFT: Hierarchical Convolutional Fusion Transformer for EEG Decoding [9.572621097681646]
階層型脳核融合変換器(HCFT)という軽量な復号化フレームワークを提案する。
HCFTはマルチスケール表現のためにデュアルブランチエンコーダと階層トランスフォーマーブロックを組み合わせる。
その結果、HCFTは平均精度80.83%、BCI IV-2bではコーエンのカッパが0.6165であり、感度99.10%、時間当たり0.0236の偽陽性、CHB-MITでは98.82%であることがわかった。
論文 参考訳(メタデータ) (2026-01-18T06:36:30Z) - Lightweight Test-Time Adaptation for EMG-Based Gesture Recognition [2.414036142474149]
本稿では,TCNバックボーンを用いたテスト時間適応(TTA)のための軽量フレームワークを提案する。
本稿では, リアルタイム統計アライメントのための因果適応バッチ正規化, (ii) ガウス混合モデル(GMM)アライメント, (iii) 迅速な数ショットキャリブレーションのためのメタラーニングの3つの展開対応戦略を紹介する。
評価の結果,経験再生更新は限られたデータの下では優れた安定性を示し,メタラーニングは1ショットと2ショットのレギュレーションにおいて競争性能を達成していることがわかった。
論文 参考訳(メタデータ) (2026-01-07T18:48:31Z) - Hierarchical Spatio-Temporal Attention Network with Adaptive Risk-Aware Decision for Forward Collision Warning in Complex Scenarios [7.238050152381639]
本稿では,階層型時空間注意ネットワークと動的リスク閾値調整アルゴリズムを併用した前方衝突警報フレームワークを提案する。
マルチシナリオデータセットでテストされ、完全なシステムは高い有効性を示し、F1スコアは0.912、偽警報率は8.2%、警告リード時間は2.8秒である。
論文 参考訳(メタデータ) (2025-11-25T05:57:29Z) - Explainable AI for Accelerated Microstructure Imaging: A SHAP-Guided Protocol on the Connectome 2.0 scanner [0.8306551626831736]
本研究では,スキャン期間を大幅に短縮しつつ,モデル精度を保ったConnectome 2.0スキャナの取得方法を提案する。
我々は、15-featureプロトコルから最適な8-featureサブセットを特定するためのガイド付き特徴除去戦略を用いた説明可能な人工知能を用いたデータ駆動フレームワークを開発した。
論文 参考訳(メタデータ) (2025-09-11T14:53:26Z) - Towards Stabilized and Efficient Diffusion Transformers through Long-Skip-Connections with Spectral Constraints [51.83081671798784]
Diffusion Transformers (DiT) は、画像およびビデオ生成のための強力なアーキテクチャとして登場し、優れた品質とスケーラビリティを提供している。
DiTの実用アプリケーションは本質的に動的特徴不安定性に悩まされており、キャッシュされた推論中にエラーを増幅する。
我々は,Long-Skip-Connections (LSCs) で拡張された画像およびビデオ生成型DiTであるSkip-DiTを提案する。
論文 参考訳(メタデータ) (2024-11-26T17:28:10Z) - Consistency Trajectory Models: Learning Probability Flow ODE Trajectory of Diffusion [56.38386580040991]
Consistency Trajectory Model (CTM) は Consistency Models (CM) の一般化である
CTMは、対戦訓練とスコアマッチング損失を効果的に組み合わせることで、パフォーマンスを向上させる。
CMとは異なり、CTMのスコア関数へのアクセスは、確立された制御可能/条件生成メソッドの採用を合理化することができる。
論文 参考訳(メタデータ) (2023-10-01T05:07:17Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。