論文の概要: A Feature Extraction Pipeline for Enhancing Lightweight Neural Networks in sEMG-based Joint Torque Estimation
- arxiv url: http://arxiv.org/abs/2601.16712v1
- Date: Fri, 23 Jan 2026 12:59:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.684548
- Title: A Feature Extraction Pipeline for Enhancing Lightweight Neural Networks in sEMG-based Joint Torque Estimation
- Title(参考訳): sEMGを用いた関節トルク推定における軽量ニューラルネットワークの高速化のための特徴抽出パイプライン
- Authors: Kartik Chari, Raid Dokhan, Anas Homsi, Niklas Kueper, Elsa Andrea Kirchner,
- Abstract要約: 肘関節トルクと肩関節トルクの予測のための特徴抽出パイプラインを提案する。
このパイプラインは、時間的依存関係を明示的に設計したネットワークに匹敵する、シンプルなパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 1.9573380763700712
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robot-assisted rehabilitation offers an effective approach, wherein exoskeletons adapt to users' needs and provide personalized assistance. However, to deliver such assistance, accurate prediction of the user's joint torques is essential. In this work, we propose a feature extraction pipeline using 8-channel surface electromyography (sEMG) signals to predict elbow and shoulder joint torques. For preliminary evaluation, this pipeline was integrated into two neural network models: the Multilayer Perceptron (MLP) and the Temporal Convolutional Network (TCN). Data were collected from a single subject performing elbow and shoulder movements under three load conditions (0 kg, 1.10 kg, and 1.85 kg) using three motion-capture cameras. Reference torques were estimated from center-of-mass kinematics under the assumption of static equilibrium. Our offline analyses showed that, with our feature extraction pipeline, MLP model achieved mean RMSE of 0.963 N m, 1.403 N m, and 1.434 N m (over five seeds) for elbow, front-shoulder, and side-shoulder joints, respectively, which were comparable to the TCN performance. These results demonstrate that the proposed feature extraction pipeline enables a simple MLP to achieve performance comparable to that of a network designed explicitly for temporal dependencies. This finding is particularly relevant for applications with limited training data, a common scenario patient care.
- Abstract(参考訳): ロボット支援リハビリテーションは、外骨格がユーザのニーズに適応し、パーソナライズされた支援を提供する効果的なアプローチを提供する。
しかし、そのような補助を提供するためには、ユーザの関節トルクの正確な予測が不可欠である。
本研究では,8チャネル表面筋電図(sEMG)信号を用いて肘関節トルクと肩関節トルクを推定する特徴抽出パイプラインを提案する。
予備評価のため、このパイプラインはMultilayer Perceptron(MLP)とTemporal Convolutional Network(TCN)の2つのニューラルネットワークモデルに統合された。
3つのモーションキャプチャーカメラを用いて3つの負荷条件(0 kg, 1.10 kg, 1.85 kg)で肘と肩の動きを計測した。
静平衡を仮定して, 中心運動量から基準トルクを推定した。
我々のオフライン分析では, 特徴抽出パイプラインを用いて, MLP モデルの平均 RMSE は 0.963 N m, 1.403 N m, 1.434 N m (5種以上) であり, それぞれTN と同等であった。
これらの結果から,提案した特徴抽出パイプラインは,時間依存性を明示的に設計したネットワークに匹敵する,単純なMPPの性能を実現することができることがわかった。
この発見は、訓練データに制限があるアプリケーション、つまり一般的な患者ケアに特に関係している。
関連論文リスト
- A Hybrid Neural Network with Smart Skip Connections for High-Precision, Low-Latency EMG-Based Hand Gesture Recognition [0.2356141385409842]
本稿では,手の動き認識を高精度かつ効率的に行うために,ConSGruNetという新しいハイブリッドニューラルネットワークを提案する。
提案されたモデルは、わずか25ミリ秒で53クラスの分類において99.7%の精度を持つ。
論文 参考訳(メタデータ) (2025-03-12T04:01:32Z) - DA-Flow: Dual Attention Normalizing Flow for Skeleton-based Video Anomaly Detection [52.74152717667157]
本稿では,DAM(Dual Attention Module)と呼ばれる軽量モジュールを提案する。
フレームアテンション機構を使用して、最も重要なフレームを識別し、スケルトンアテンション機構を使用して、最小パラメータとフロップで固定されたパーティション間の広範な関係をキャプチャする。
論文 参考訳(メタデータ) (2024-06-05T06:18:03Z) - Predicting Multi-Joint Kinematics of the Upper Limb from EMG Signals
Across Varied Loads with a Physics-Informed Neural Network [0.0]
PINNモデルは、フィードフォワードニューラルネットワーク(ANN)とジョイントトルクモデルを組み合わせることで構成される。
PINNモデルのトレーニングデータセットは、EMGと4つの異なる被験者から収集された時間データを含む。
その結果,関節角度予測では58%から83%の相関が認められた。
論文 参考訳(メタデータ) (2023-11-28T16:55:11Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Back to MLP: A Simple Baseline for Human Motion Prediction [59.18776744541904]
本稿では、歴史的に観察されたシーケンスから将来の身体のポーズを予測することによる、人間の動作予測の課題に取り組む。
これらの手法の性能は、0.14Mパラメータしか持たない軽量で純粋にアーキテクチャアーキテクチャによって超えることができることを示す。
Human3.6M, AMASS, 3DPWデータセットの徹底的な評価は, siMLPeをダブした我々の手法が, 他のアプローチよりも一貫して優れていることを示している。
論文 参考訳(メタデータ) (2022-07-04T16:35:58Z) - SCPM-Net: An Anchor-free 3D Lung Nodule Detection Network using Sphere
Representation and Center Points Matching [47.79483848496141]
3次元球面表現に基づく中心点マッチング検出ネットワーク(SCPM-Net)を提案する。
アンカーフリーで、nodule/anchorパラメータを手動で設計することなく、nodulesの位置、半径、オフセットを自動的に予測する。
提案するSCPM-Netフレームワークは,既存のアンカーベースおよびアンカーフリーの肺結節検出法と比較して,優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-04-12T05:51:29Z) - Prostate motion modelling using biomechanically-trained deep neural
networks on unstructured nodes [0.28470372019928303]
生体力学シミュレーションを用いて深部ニューラルネットワークをトレーニングし,超音波ガイド下介入時の前立腺運動を予測する。
PointNetは、有限要素(FE)シミュレーションを接地トラストデータとして使用して、ノイズ変位を予測するために訓練することができる。
320名の患者の臨床像データに対する160,000個の非線形FEシミュレーションに基づいて, トレーニングされたネットワークが, ホールドアウト患者セグメンテーションから直接サンプリングされた非構造化点集合に一般化されることを実証した。
論文 参考訳(メタデータ) (2020-07-09T17:58:41Z) - Efficiently Calibrating Cable-Driven Surgical Robots with RGBD Fiducial
Sensing and Recurrent Neural Networks [26.250886014613762]
そこで本研究では,RGBDセンサを用いて3次元プリントされたフィデューシャル座標フレームをアームとエンドエフェクタに配置することで,ロボットを効率的に校正する手法を提案する。
提案手法では,1800サンプルのデータ収集に31分,モデルトレーニングに1分を要した。
基準軌道の試験セットの結果から、トレーニングされたモデルは、物理ロボットの平均追尾誤差を2.96mmから0.65mmに減少させることができることが示唆された。
論文 参考訳(メタデータ) (2020-03-19T00:24:56Z) - HEMlets PoSh: Learning Part-Centric Heatmap Triplets for 3D Human Pose
and Shape Estimation [60.35776484235304]
本研究は, 中間状態部分熱マップトリプレット(HEMlets)を導入し, 検出された2次元関節を三次元空間に持ち上げる不確実性に対処しようとするものである。
HEMletsは3つのジョイントヒートマップを使用して、各骨格体部に対するエンドジョイントの相対的な深さ情報を表す。
Convolutional Network (ConvNet) は、入力画像からHEMletを予測し、次にボリュームのジョイント・ヒートマップレグレッションを学習する。
論文 参考訳(メタデータ) (2020-03-10T04:03:45Z) - Toward fast and accurate human pose estimation via soft-gated skip
connections [97.06882200076096]
本稿では,高精度かつ高効率な人間のポーズ推定について述べる。
我々は、最先端技術よりも精度と効率を両立させる文脈において、この設計選択を再分析する。
本モデルでは,MPII と LSP のデータセットから最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-02-25T18:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。