論文の概要: Leveraging Convolutional Sparse Autoencoders for Robust Movement Classification from Low-Density sEMG
- arxiv url: http://arxiv.org/abs/2601.23011v1
- Date: Fri, 30 Jan 2026 14:21:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.495362
- Title: Leveraging Convolutional Sparse Autoencoders for Robust Movement Classification from Low-Density sEMG
- Title(参考訳): 低密度sEMGからのロバスト移動分類のための畳み込みスパースオートエンコーダの活用
- Authors: Blagoj Hristov, Zoran Hadzi-Velkov, Katerina Hadzi-Velkova Saneva, Gorjan Nadzinski, Vesna Ojleska Latkoska,
- Abstract要約: 本研究では,2つの表面筋電図(sEMG)チャネルのみを用いた正確なジェスチャー認識のためのディープラーニングフレームワークを提案する。
最小限の校正データで35.1%$pm$3.1%から92.3%$pm$0.9%のベースラインから、未確認被験者のパフォーマンスを改善した数ショット転送学習プロトコルを提案する。
- 参考スコア(独自算出の注目度): 0.46976113832881716
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reliable control of myoelectric prostheses is often hindered by high inter-subject variability and the clinical impracticality of high-density sensor arrays. This study proposes a deep learning framework for accurate gesture recognition using only two surface electromyography (sEMG) channels. The method employs a Convolutional Sparse Autoencoder (CSAE) to extract temporal feature representations directly from raw signals, eliminating the need for heuristic feature engineering. On a 6-class gesture set, our model achieved a multi-subject F1-score of 94.3% $\pm$ 0.3%. To address subject-specific differences, we present a few-shot transfer learning protocol that improved performance on unseen subjects from a baseline of 35.1% $\pm$ 3.1% to 92.3% $\pm$ 0.9% with minimal calibration data. Furthermore, the system supports functional extensibility through an incremental learning strategy, allowing for expansion to a 10-class set with a 90.0% $\pm$ 0.2% F1-score without full model retraining. By combining high precision with minimal computational and sensor overhead, this framework provides a scalable and efficient approach for the next generation of affordable and adaptive prosthetic systems.
- Abstract(参考訳): 筋電義歯の信頼性の高い制御は、高密度センサアレイの高オブジェクト間変動と臨床的非実用性によってしばしば妨げられる。
本研究では,2つの表面筋電図(sEMG)チャネルのみを用いた正確なジェスチャー認識のためのディープラーニングフレームワークを提案する。
この手法では、畳み込みスパースオートエンコーダ(CSAE)を用いて、生信号から直接時間的特徴表現を抽出し、ヒューリスティックな特徴工学の必要性を排除している。
6クラスジェスチャセットでは,F1スコア94.3%$\pm$0.3%のマルチオブジェクトを達成した。
被験者固有の違いに対処するため、最小限の校正データで35.1%$\pm$3.1%から92.3%$\pm$0.9%まで、見知らぬ被験者のパフォーマンスを改善した数ショット転送学習プロトコルを提案する。
さらに、このシステムはインクリメンタルな学習戦略を通じて機能拡張をサポートし、完全なモデル再トレーニングなしで90.0%$\pm$ 0.2% F1スコアの10クラスに拡張できる。
このフレームワークは、高精度と最小限の計算およびセンサーオーバーヘッドを組み合わせることで、次世代の安価で適応的な義肢システムに対して、スケーラブルで効率的なアプローチを提供する。
関連論文リスト
- ECG Latent Feature Extraction with Autoencoders for Downstream Prediction Tasks [2.2616169634370076]
心電図(Electrocardiogram、ECG)は、安価で広く用いられる心臓評価用ツールである。
標準化されたフォーマットと小さなファイルサイズにもかかわらず、ECG信号の複雑さと個人間変動は、ディープラーニングモデルでの使用を困難にしている。
本研究は,代表的ビート心電図から特徴生成手法を探索することにより,これらの課題に対処する。
本稿では,3つの新しい変分自動エンコーダ(VAE)-Stochastic Autoencoder (SAE), Annealed beta-VAE (A beta-VAE), Cyclical beta VAE (C beta-VAE)を導入し,それらの維持効果を比較した。
論文 参考訳(メタデータ) (2025-07-31T19:37:05Z) - CEReBrO: Compact Encoder for Representations of Brain Oscillations Using Efficient Alternating Attention [46.47343031985037]
交互注意(CEReBrO)を用いた脳振動の表現のための圧縮法について紹介する。
トークン化方式は、チャネルごとのパッチで脳波信号を表現します。
本研究では,チャネル内時間的ダイナミックスとチャネル間空間的相関を共同でモデル化し,通常の自己アテンションに比べて6倍少ないメモリで2倍の速度向上を実現するための注意機構を提案する。
論文 参考訳(メタデータ) (2025-01-18T21:44:38Z) - Fast Cell Library Characterization for Design Technology Co-Optimization Based on Graph Neural Networks [0.1752969190744922]
設計技術の共同最適化(DTCO)は、最適パワー、性能、領域を達成する上で重要な役割を果たす。
本稿では,高速かつ正確なセルライブラリ解析のためのグラフニューラルネットワーク(GNN)に基づく機械学習モデルを提案する。
論文 参考訳(メタデータ) (2023-12-20T06:10:27Z) - Multiple Time Series Fusion Based on LSTM An Application to CAP A Phase
Classification Using EEG [56.155331323304]
本研究では,深層学習に基づく脳波チャンネルの特徴レベル融合を行う。
チャネル選択,融合,分類手順を2つの最適化アルゴリズムで最適化した。
論文 参考訳(メタデータ) (2021-12-18T14:17:49Z) - SADet: Learning An Efficient and Accurate Pedestrian Detector [68.66857832440897]
本稿では,一段検出器の検出パイプラインに対する一連の最適化手法を提案する。
効率的な歩行者検出のための単発アンカーベース検出器(SADet)を形成する。
構造的には単純だが、VGA解像度の画像に対して最先端の結果と20ドルFPSのリアルタイム速度を示す。
論文 参考訳(メタデータ) (2020-07-26T12:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。