論文の概要: Neuromuscular Reinforcement Learning to Actuate Human Limbs through FES
- arxiv url: http://arxiv.org/abs/2209.07849v1
- Date: Fri, 16 Sep 2022 10:41:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 13:44:00.792963
- Title: Neuromuscular Reinforcement Learning to Actuate Human Limbs through FES
- Title(参考訳): fesによるヒト四肢運動の神経筋強化学習
- Authors: Nat Wannawas, Ali Shafti, A.Aldo Faisal
- Abstract要約: 機能的電気刺激 (FES) は低エネルギー電気信号によって筋収縮を引き起こす技術である。
しかし、望まれる動作を達成するためにFESを適用する方法については、未解決の課題が残っている。
本稿では,患者の刺激を自動的にカスタマイズできる強化学習(Reinforcement Learning, RL)を通じて,FESを制御することを学ぶ。
- 参考スコア(独自算出の注目度): 7.4769019455423855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Functional Electrical Stimulation (FES) is a technique to evoke muscle
contraction through low-energy electrical signals. FES can animate paralysed
limbs. Yet, an open challenge remains on how to apply FES to achieve desired
movements. This challenge is accentuated by the complexities of human bodies
and the non-stationarities of the muscles' responses. The former causes
difficulties in performing inverse dynamics, and the latter causes control
performance to degrade over extended periods of use. Here, we engage the
challenge via a data-driven approach. Specifically, we learn to control FES
through Reinforcement Learning (RL) which can automatically customise the
stimulation for the patients. However, RL typically has Markovian assumptions
while FES control systems are non-Markovian because of the non-stationarities.
To deal with this problem, we use a recurrent neural network to create
Markovian state representations. We cast FES controls into RL problems and
train RL agents to control FES in different settings in both simulations and
the real world. The results show that our RL controllers can maintain control
performances over long periods and have better stimulation characteristics than
PID controllers.
- Abstract(参考訳): 機能的電気刺激(FES)は低エネルギー電気信号によって筋収縮を引き起こす技術である。
FESは麻痺肢をアニメーション化できる。
しかし、fesを望ましい動きにどう適用するかという課題は残されている。
この課題は、人体の複雑さと筋肉の反応の非定常性によって強調される。
前者は逆ダイナミクスの実行に困難を生じ、後者は制御性能を長期の使用で低下させる。
ここでは、データ駆動アプローチによって課題に取り組みます。
具体的には、患者に対して自動的に刺激をカスタマイズできる強化学習(RL)を通して、FESを制御することを学ぶ。
しかしながら、RLは典型的にはマルコフ的仮定を持ち、FES制御系は非定常性のためマルコフ的でない。
この問題に対処するために、マルコフ状態表現を生成するために、繰り返しニューラルネットワークを使用する。
我々はFES制御をRL問題に投入し、シミュレーションと実世界の異なる環境でFESを制御するためにRLエージェントを訓練した。
その結果、我々のRLコントローラは長期にわたって制御性能を維持し、PIDコントローラよりも優れた刺激特性を有することがわかった。
関連論文リスト
- SuperPADL: Scaling Language-Directed Physics-Based Control with Progressive Supervised Distillation [55.47473138423572]
物理ベースのテキスト・トゥ・モーションのためのスケーラブルなフレームワークであるSuperPADLを紹介する。
SuperPADLは、RLと教師あり学習を使って、何千もの多様なモーションクリップでコントローラを訓練する。
コントローラは5000以上のスキルを含むデータセットでトレーニングされ、コンシューマGPU上でリアルタイムに動作します。
論文 参考訳(メタデータ) (2024-07-15T07:07:11Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Towards AI-controlled FES-restoration of arm movements: Controlling for
progressive muscular fatigue with Gaussian state-space models [6.320141734801679]
強化学習(Reinforcement Learning, RL)は、異なる設定でカスタマイズされた制御ルールを管理するための有望なアプローチである。
しかし、FES系をRLに制御する上で残る課題は、保存不能な筋肉疲労である。
本稿では, 筋疲労問題に対処し, RLコントローラの制御性能を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-01-10T14:51:55Z) - Towards AI-controlled FES-restoration of arm movements:
neuromechanics-based reinforcement learning for 3-D reaching [6.320141734801679]
機能的電気刺激(FES)は、失われた運動機能を回復することができる。
神経力学モデルは、FES制御法を開発する上で貴重なツールである。
FESによる腕の動きの復元に向けたアプローチを提案する。
論文 参考訳(メタデータ) (2023-01-10T14:50:37Z) - Skip Training for Multi-Agent Reinforcement Learning Controller for
Industrial Wave Energy Converters [94.84709449845352]
近年のウェーブ・エナジー・コンバータ(WEC)は、発電を最大化するために複数の脚と発電機を備えている。
従来のコントローラは複雑な波のパターンを捕捉する制限を示しており、コントローラはエネルギー捕獲を効率的に最大化する必要がある。
本稿では,従来のスプリングダンパよりも優れたマルチエージェント強化学習コントローラ(MARL)を提案する。
論文 参考訳(メタデータ) (2022-09-13T00:20:31Z) - Machine Learning for Mechanical Ventilation Control (Extended Abstract) [52.65490904484772]
機械的換気はICUで最も広く用いられている治療法の1つである。
人工呼吸器は、所定の気道圧の軌跡に従って患者の肺に空気を注入しなければならない。
データ駆動型アプローチは、人工呼吸器から収集したデータに基づいて訓練されたシミュレーターをトレーニングすることで、侵襲的人工呼吸器を制御することを学ぶ。
この方法は、一般的な強化学習アルゴリズムより優れており、PIDよりも正確で堅牢な物理的換気装置も制御できる。
論文 参考訳(メタデータ) (2021-11-19T20:54:41Z) - Residual Reinforcement Learning from Demonstrations [51.56457466788513]
報酬信号の最大化のために,従来のフィードバックコントローラからの制御動作を適用することで,ロボット作業の課題を解決する手段として,残留強化学習(Residual reinforcement learning, RL)が提案されている。
視覚的インプットから学習するための残差定式化を拡張し,実演を用いて報酬をスパースする。
6-DoFのUR5アームと28-DoFのデキスタラスハンドのシミュレーション操作に関する実験的評価は、デモからの残留RLが、行動クローニングやRL微調整よりも柔軟に、見えない環境条件に一般化できることを実証している。
論文 参考訳(メタデータ) (2021-06-15T11:16:49Z) - Continuous Decoding of Daily-Life Hand Movements from Forearm Muscle
Activity for Enhanced Myoelectric Control of Hand Prostheses [78.120734120667]
本研究では,前腕のEMG活性をハンドキネマティクスに連続的にマップする,長期記憶(LSTM)ネットワークに基づく新しい手法を提案する。
私たちの研究は、この困難なデータセットを使用するハンドキネマティクスの予測に関する最初の報告です。
提案手法は, 人工手指の複数のDOFの独立的, 比例的アクティベーションのための制御信号の生成に適していることが示唆された。
論文 参考訳(メタデータ) (2021-04-29T00:11:32Z) - I am Robot: Neuromuscular Reinforcement Learning to Actuate Human Limbs
through Functional Electrical Stimulation [5.066245628617513]
機能電気刺激(FES)は筋肉の上の皮を刺激して収縮を誘発することによって筋肉を収縮させる確立された技術です。
動的状態表現のためのリカレントニューラルネットワークを用いて,人間の筋肉をFESで制御するためのDeep Reinforcement Learningアプローチを提案する。
以上の結果から,本制御器は筋力操作を学習でき,与えられた課題を達成するために適切なレベルの刺激を施し,作業中に生じる筋疲労の進行を補償できることがわかった。
論文 参考訳(メタデータ) (2021-03-09T10:58:51Z) - Neuromechanics-based Deep Reinforcement Learning of Neurostimulation
Control in FES cycling [1.933681537640272]
機能電気刺激(FES)は麻痺した人の筋肉に動きを回復できます。
現在の神経刺激工学は20世紀の制御アプローチに依存している。
深部強化学習(RL)は、FESサイクリングのための麻痺脚のリアルタイム適応神経刺激のために開発された。
論文 参考訳(メタデータ) (2021-03-04T14:33:18Z) - Reinforcement Learning of Musculoskeletal Control from Functional
Simulations [3.94716580540538]
本研究は、深部強化学習(DRL)に基づく逆動力学制御器を用いて、人間の肩の生体力学的モデルによる筋活動の制御を訓練する。
その結果,無作為に発生する角軌道に追従する作業に対して,肩下降の単一軸運動制御を行うことができた。
論文 参考訳(メタデータ) (2020-07-13T20:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。