論文の概要: Neuromechanics-based Deep Reinforcement Learning of Neurostimulation
Control in FES cycling
- arxiv url: http://arxiv.org/abs/2103.03057v1
- Date: Thu, 4 Mar 2021 14:33:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 14:52:35.760354
- Title: Neuromechanics-based Deep Reinforcement Learning of Neurostimulation
Control in FES cycling
- Title(参考訳): FESサイクリングにおける神経刺激制御の神経力学に基づく深部強化学習
- Authors: Nat Wannawas, Mahendran Subramanian, A. Aldo Faisal
- Abstract要約: 機能電気刺激(FES)は麻痺した人の筋肉に動きを回復できます。
現在の神経刺激工学は20世紀の制御アプローチに依存している。
深部強化学習(RL)は、FESサイクリングのための麻痺脚のリアルタイム適応神経刺激のために開発された。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Functional Electrical Stimulation (FES) can restore motion to a paralysed
person's muscles. Yet, control stimulating many muscles to restore the
practical function of entire limbs is an unsolved problem. Current
neurostimulation engineering still relies on 20th Century control approaches
and correspondingly shows only modest results that require daily tinkering to
operate at all. Here, we present our state of the art Deep Reinforcement
Learning (RL) developed for real time adaptive neurostimulation of paralysed
legs for FES cycling. Core to our approach is the integration of a personalised
neuromechanical component into our reinforcement learning framework that allows
us to train the model efficiently without demanding extended training sessions
with the patient and working out of the box. Our neuromechanical component
includes merges musculoskeletal models of muscle and or tendon function and a
multistate model of muscle fatigue, to render the neurostimulation responsive
to a paraplegic's cyclist instantaneous muscle capacity. Our RL approach
outperforms PID and Fuzzy Logic controllers in accuracy and performance.
Crucially, our system learned to stimulate a cyclist's legs from ramping up
speed at the start to maintaining a high cadence in steady state racing as the
muscles fatigue. A part of our RL neurostimulation system has been successfully
deployed at the Cybathlon 2020 bionic Olympics in the FES discipline with our
paraplegic cyclist winning the Silver medal among 9 competing teams.
- Abstract(参考訳): 機能電気刺激(FES)は麻痺した人の筋肉に動きを回復できます。
しかし、四肢全体の機能を取り戻すために多くの筋肉を刺激する制御は未解決の問題である。
現在の神経刺激工学はまだ20世紀の制御アプローチに依存しており、それに応じて日常的なチンカーリングがまったく動作する必要がある控えめな結果のみを示しています。
本稿では,FESサイクリングのための麻痺肢の適応的神経刺激をリアルタイムに行うために開発されたDeep Reinforcement Learning(RL)の現状について述べる。
アプローチの核心は、強化学習フレームワークにパーソナライズされた神経機械部品を組み込むことで、患者とのトレーニングセッションの延長を必要とせず、より効率的にモデルをトレーニングすることが可能になります。
神経力学成分は筋・腱機能の筋骨格モデルと筋疲労の多状態モデルとを結合し、麻痺のサイクリストの瞬時筋肉容量に応答する神経刺激を誘導する。
我々のRLアプローチはPIDとファジィロジックの精度と性能に優れる。
また,本システムでは,自転車競技者の足の運動速度の上昇を刺激し,筋疲労時の定常走行において高いケイデンスを維持できることを学習した。
RLの神経刺激システムの一部は、2020年キバスロンオリンピックのFES大会で、9つの競技チームの中でパラパラパラパラジックサイクリストが銀メダルを獲得したことで成功しました。
関連論文リスト
- Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Natural and Robust Walking using Reinforcement Learning without
Demonstrations in High-Dimensional Musculoskeletal Models [29.592874007260342]
人間は複雑な自然環境の中を歩く頑丈な二足歩行で運動します。
神経系が筋骨格の冗長性をどのように解決し、多目的制御問題を解決するかは、まだ完全には分かっていない。
論文 参考訳(メタデータ) (2023-09-06T13:20:31Z) - Neuromuscular Reinforcement Learning to Actuate Human Limbs through FES [7.4769019455423855]
機能的電気刺激 (FES) は低エネルギー電気信号によって筋収縮を引き起こす技術である。
しかし、望まれる動作を達成するためにFESを適用する方法については、未解決の課題が残っている。
本稿では,患者の刺激を自動的にカスタマイズできる強化学習(Reinforcement Learning, RL)を通じて,FESを制御することを学ぶ。
論文 参考訳(メタデータ) (2022-09-16T10:41:01Z) - Continual learning benefits from multiple sleep mechanisms: NREM, REM,
and Synaptic Downscaling [51.316408685035526]
先行学習を失うことなく、新しいタスクやスキルを連続して学習することは、人工ニューラルネットワークと生物学的ニューラルネットワークの両方にとって、計算上の課題である。
本稿では,3つの異なる睡眠成分のモデル化が,人工ニューラルネットワークの連続学習にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2022-09-09T13:45:27Z) - MyoSuite -- A contact-rich simulation suite for musculoskeletal motor
control [7.856809409051587]
myoSuiteは、生理学的に正確な肘、手首、手首の生体力学的モデルで、物理的な接触機能を備えている。
簡単な姿勢制御から熟練した手-物体間相互作用まで、さまざまな運動制御課題を提供する。
論文 参考訳(メタデータ) (2022-05-26T20:11:23Z) - An Adiabatic Capacitive Artificial Neuron with RRAM-based Threshold
Detection for Energy-Efficient Neuromorphic Computing [62.997667081978825]
神経細胞の体細胞膜電位を誘導するために, 断熱性シナプスコンデンサを特徴とする人工ニューロンを提案する。
最初の4-bit adiabaticacacitive neuron proof-of-conceptの例では、90%のシナプスエネルギーが節約された。
論文 参考訳(メタデータ) (2022-02-02T17:12:22Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - I am Robot: Neuromuscular Reinforcement Learning to Actuate Human Limbs
through Functional Electrical Stimulation [5.066245628617513]
機能電気刺激(FES)は筋肉の上の皮を刺激して収縮を誘発することによって筋肉を収縮させる確立された技術です。
動的状態表現のためのリカレントニューラルネットワークを用いて,人間の筋肉をFESで制御するためのDeep Reinforcement Learningアプローチを提案する。
以上の結果から,本制御器は筋力操作を学習でき,与えられた課題を達成するために適切なレベルの刺激を施し,作業中に生じる筋疲労の進行を補償できることがわかった。
論文 参考訳(メタデータ) (2021-03-09T10:58:51Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z) - Reinforcement Learning of Musculoskeletal Control from Functional
Simulations [3.94716580540538]
本研究は、深部強化学習(DRL)に基づく逆動力学制御器を用いて、人間の肩の生体力学的モデルによる筋活動の制御を訓練する。
その結果,無作為に発生する角軌道に追従する作業に対して,肩下降の単一軸運動制御を行うことができた。
論文 参考訳(メタデータ) (2020-07-13T20:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。