論文の概要: sEMG-Driven Physics-Informed Gated Recurrent Networks for Modeling Upper Limb Multi-Joint Movement Dynamics
- arxiv url: http://arxiv.org/abs/2408.16599v1
- Date: Thu, 29 Aug 2024 15:09:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-30 13:23:15.056445
- Title: sEMG-Driven Physics-Informed Gated Recurrent Networks for Modeling Upper Limb Multi-Joint Movement Dynamics
- Title(参考訳): 上肢多関節運動のモデリングのためのsEMG駆動物理インフォームドGated Recurrent Networks
- Authors: Rajnish Kumar, Anand Gupta, Suriya Prakash Muthukrishnan, Lalan Kumar, Sitikantha Roy,
- Abstract要約: 本研究では,多関節トルク予測のための物理インフォームドGated Recurrent Network(PiGRN)を提案する。
PiGRNモデルは10個の不慣れな運動に対する関節トルクを正確に予測した。
これらの知見は、PiGRNのリアルタイム外骨格およびリハビリテーションへの応用の可能性を示している。
- 参考スコア(独自算出の注目度): 5.524068837259551
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Exoskeletons and rehabilitation systems offer great potential for enhancing human strength and recovery through advanced human-machine interfaces (HMIs) that adapt to movement dynamics. However, the real-time application of physics-informed neural networks (PINNs) is limited by their reliance on fixed input lengths and surrogate models. This study introduces a novel physics-informed Gated Recurrent Network (PiGRN) designed to predict multi-joint torques using surface electromyography (sEMG) data. The PiGRN model employs a Gated Recurrent Unit (GRU) to convert time-series sEMG inputs into multi-joint kinematics and external loads, which are then integrated into an equation of motion to ensure consistency with physical laws. Experimental validation with sEMG data from five participants performing elbow flexion-extension tasks showed that the PiGRN model accurately predicted joint torques for 10 unfamiliar movements, with RMSE values between 4.02\% and 11.40\% and correlation coefficients ranging from 0.87 to 0.98. These findings highlight the PiGRN's potential for real-time exoskeleton and rehabilitation applications. Future research will explore more diverse datasets, improve musculoskeletal models, and investigate unsupervised learning methods.
- Abstract(参考訳): 外骨格とリハビリテーションシステムは、運動力学に適応する高度なヒューマンマシンインタフェース(HMI)を通して、人間の強度と回復を高める大きな可能性をもたらす。
しかし、物理インフォームドニューラルネットワーク(PINN)のリアルタイム適用は、一定の入力長と代理モデルに依存しているため制限される。
本研究では,表面筋電図(sEMG)データを用いた多関節トルク予測のための物理インフォームドGated Recurrent Network(PiGRN)を提案する。
PiGRNモデルは、時系列sEMG入力をマルチジョイントキネマティクスと外部負荷に変換するためにGRU(Gated Recurrent Unit)を使用しており、物理法則との整合性を確保するために運動方程式に統合される。
肘屈曲・伸展作業を行う5人の被験者のsEMGデータによる実験的検証の結果, RMSE値が4.02\%から11.40\%, 相関係数が0.87から0.98であった。
これらの知見は、PiGRNのリアルタイム外骨格およびリハビリテーションへの応用の可能性を示している。
今後の研究は、より多様なデータセットを探索し、筋骨格モデルを改善し、教師なし学習方法を検討する。
関連論文リスト
- MS-MANO: Enabling Hand Pose Tracking with Biomechanical Constraints [50.61346764110482]
筋骨格系と学習可能なパラメトリックハンドモデルMANOを統合し,MS-MANOを作成する。
このモデルは骨格系を駆動する筋肉と腱の力学をエミュレートし、結果として生じるトルク軌跡に生理学的に現実的な制約を与える。
また,マルチ層パーセプトロンネットワークによる初期推定ポーズを改良する,ループ式ポーズ改善フレームワークBioPRを提案する。
論文 参考訳(メタデータ) (2024-04-16T02:18:18Z) - A Multi-Grained Symmetric Differential Equation Model for Learning
Protein-Ligand Binding Dynamics [74.93549765488103]
薬物発見において、分子動力学シミュレーションは、結合親和性を予測し、輸送特性を推定し、ポケットサイトを探索する強力なツールを提供する。
我々は,数値MDを容易にし,タンパク質-リガンド結合の正確なシミュレーションを提供する,最初の機械学習サロゲートであるNeuralMDを提案する。
我々は、標準的な数値MDシミュレーションよりも2000$times$のスピードアップを達成し、安定性の指標の下では、他のMLアプローチよりも最大80%高い効率で、NeuralMDの有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-01-26T09:35:17Z) - Predicting Multi-Joint Kinematics of the Upper Limb from EMG Signals
Across Varied Loads with a Physics-Informed Neural Network [0.0]
PINNモデルは、フィードフォワードニューラルネットワーク(ANN)とジョイントトルクモデルを組み合わせることで構成される。
PINNモデルのトレーニングデータセットは、EMGと4つの異なる被験者から収集された時間データを含む。
その結果,関節角度予測では58%から83%の相関が認められた。
論文 参考訳(メタデータ) (2023-11-28T16:55:11Z) - Inferring Relational Potentials in Interacting Systems [56.498417950856904]
このような相互作用を発見する代替手法として、ニューラル・インタラクション・推論(NIIP)を提案する。
NIIPは観測された関係制約を尊重する軌道のサブセットに低エネルギーを割り当てる。
別々に訓練されたモデル間での相互作用の型を交換するなどの軌道操作や、軌道予測を可能にする。
論文 参考訳(メタデータ) (2023-10-23T00:44:17Z) - Physics-informed State-space Neural Networks for Transport Phenomena [0.0]
本研究は物理インフォームドステートスペースニューラルネットワークモデル(PSM)を紹介する。
PSMは、自律システムにおけるリアルタイム最適化、柔軟性、フォールトトレランスを達成するための新しいソリューションである。
PSMはデジタルツインの基盤として機能し、物理的システムのデジタル表現を常に更新する。
論文 参考訳(メタデータ) (2023-09-21T16:14:36Z) - The bionic neural network for external simulation of human locomotor
system [2.6311880922890842]
本稿では,筋骨格モデルに基づく物理インフォームド深層学習法を提案し,関節運動と筋力を予測する。
この方法は、被験者固有のMSK生理学的パラメータを効果的に同定することができ、訓練された物理インフォームドフォワード力学は、正確な動きと筋力予測をもたらす。
論文 参考訳(メタデータ) (2023-09-11T23:02:56Z) - A Physics-Informed Low-Shot Learning For sEMG-Based Estimation of Muscle
Force and Joint Kinematics [4.878073267556235]
表面筋電図(sEMG)による筋力と関節キネマティクス推定はリアルタイム生体力学的解析に不可欠である。
ディープニューラルネットワーク(DNN)の最近の進歩は、完全に自動化され再現可能な方法で生体力学解析を改善する可能性を示している。
本稿では,筋力と関節キネマティクスのsEMGに基づく新しい物理インフォームドローショット学習法を提案する。
論文 参考訳(メタデータ) (2023-07-08T23:01:12Z) - A Multi-Resolution Physics-Informed Recurrent Neural Network:
Formulation and Application to Musculoskeletal Systems [1.978587235008588]
本研究は筋骨格運動(MSK)の同時予測のための物理インフォームド・リカレントニューラルネットワーク(MR PI-RNN)を提案する。
提案手法は、高速ウェーブレット変換を用いて、混合周波数入力sEMGを分解し、ジョイントモーション信号をネスト多重解像度信号に出力する。
このフレームワークはまた、被験者の運動学データと生理的に整合した筋肉パラメータを識別することも可能である。
論文 参考訳(メタデータ) (2023-05-26T02:51:39Z) - PhysFormer++: Facial Video-based Physiological Measurement with SlowFast
Temporal Difference Transformer [76.40106756572644]
最近のディープラーニングアプローチは、時間的受容の限られた畳み込みニューラルネットワークを用いた微妙な手がかりのマイニングに重点を置いている。
本稿では,PhysFormerとPhys++++をベースとした2つのエンドツーエンドビデオ変換器を提案する。
4つのベンチマークデータセットで総合的な実験を行い、時間内テストとクロスデータセットテストの両方において優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-07T15:56:03Z) - Mixed Effects Neural ODE: A Variational Approximation for Analyzing the
Dynamics of Panel Data [50.23363975709122]
パネルデータ解析に(固定・ランダムな)混合効果を取り入れたME-NODEという確率モデルを提案する。
我々は、Wong-Zakai定理によって提供されるSDEの滑らかな近似を用いて、我々のモデルを導出できることを示す。
次に、ME-NODEのためのエビデンスに基づく下界を導出し、(効率的な)トレーニングアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-18T22:41:51Z) - PhysFormer: Facial Video-based Physiological Measurement with Temporal
Difference Transformer [55.936527926778695]
近年のディープラーニングアプローチは、時間的受容の限られた畳み込みニューラルネットワークを用いた微妙なrの手がかりのマイニングに重点を置いている。
本稿では,エンドツーエンドのビデオトランスをベースとしたアーキテクチャであるPhysFormerを提案する。
論文 参考訳(メタデータ) (2021-11-23T18:57:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。