論文の概要: Reciprocal Learning of Intent Inferral with Augmented Visual Feedback for Stroke
- arxiv url: http://arxiv.org/abs/2412.07956v1
- Date: Tue, 10 Dec 2024 22:49:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:03:18.651868
- Title: Reciprocal Learning of Intent Inferral with Augmented Visual Feedback for Stroke
- Title(参考訳): ストロークに対する視覚フィードバックを付加したインテントインフェラルの相互学習
- Authors: Jingxi Xu, Ava Chen, Lauren Winterbottom, Joaquin Palacios, Preethika Chivukula, Dawn M. Nilsen, Joel Stein, Matei Ciocarlie,
- Abstract要約: 本稿では,意図的推論型分類器への人間の適応を容易にする双方向パラダイムを提案する。
我々はこのパラダイムを、脳卒中のためのロボットハンドの整形制御の文脈で実証する。
脳卒中患者を対象に行った実験では,他者に対するパフォーマンスに悪影響を及ぼすことなく,サブセットでの相互学習によるパフォーマンス向上が見られた。
- 参考スコア(独自算出の注目度): 2.303526979876375
- License:
- Abstract: Intent inferral, the process by which a robotic device predicts a user's intent from biosignals, offers an effective and intuitive way to control wearable robots. Classical intent inferral methods treat biosignal inputs as unidirectional ground truths for training machine learning models, where the internal state of the model is not directly observable by the user. In this work, we propose reciprocal learning, a bidirectional paradigm that facilitates human adaptation to an intent inferral classifier. Our paradigm consists of iterative, interwoven stages that alternate between updating machine learning models and guiding human adaptation with the use of augmented visual feedback. We demonstrate this paradigm in the context of controlling a robotic hand orthosis for stroke, where the device predicts open, close, and relax intents from electromyographic (EMG) signals and provides appropriate assistance. We use LED progress-bar displays to communicate to the user the predicted probabilities for open and close intents by the classifier. Our experiments with stroke subjects show reciprocal learning improving performance in a subset of subjects (two out of five) without negatively impacting performance on the others. We hypothesize that, during reciprocal learning, subjects can learn to reproduce more distinguishable muscle activation patterns and generate more separable biosignals.
- Abstract(参考訳): Intent Inferralは、ロボットデバイスがユーザーの意図を生体信号から予測するプロセスであり、ウェアラブルロボットを制御する効果的な直感的な方法を提供する。
古典的意図推論法は、生体信号入力を機械学習モデルをトレーニングするための一方向の基底真理として扱う。
本研究では,意図的推論型分類器への人間の適応を促進する双方向パラダイムである相互学習を提案する。
我々のパラダイムは、機械学習モデルの更新と、強化された視覚フィードバックの使用による人間の適応の誘導とを交互に交互に行う反復的な相互織りの段階で構成されている。
我々は,脳卒中におけるロボットハンドの整形制御の文脈において,このパラダイムを実証し,電気筋電図(EMG)信号からのオープン,クローズ,リラックスの意図を予測し,適切な支援を提供する。
我々はLEDプログレスバーディスプレイを使用して、分類器によるオープンかつクローズインテントの予測確率をユーザーに伝達する。
脳卒中患者を対象に行った実験では,他の被験者に悪影響を与えることなく,被験者のサブセット(5人に2人)における相互学習によるパフォーマンス向上が見られた。
相互学習中、被験者はより区別可能な筋活性化パターンを再現し、より分離可能な生体信号を生成することができると仮定する。
関連論文リスト
- Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Enhancing Robot Learning through Learned Human-Attention Feature Maps [6.724036710994883]
ロボット学習にフォーカスポイントに関する補助情報を埋め込むことで、学習プロセスの効率性と堅牢性が向上すると考えられる。
本稿では,人間の注意を近似予測モデルでモデル化し,エミュレートするための新しいアプローチを提案する。
我々は,物体検出と模倣学習という2つの学習課題にアプローチを試行する。
論文 参考訳(メタデータ) (2023-08-29T14:23:44Z) - Visual Affordance Prediction for Guiding Robot Exploration [56.17795036091848]
我々は,ロボット探索を導くための視覚能力の学習手法を開発した。
VQ-VAEの潜伏埋め込み空間における条件分布の学習にはTransformerベースのモデルを用いる。
本稿では,ロボット操作における視覚的目標条件付きポリシー学習において,目標サンプリング分布として機能することで探索を導くために,トレーニングされた余裕モデルをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2023-05-28T17:53:09Z) - Continually Learned Pavlovian Signalling Without Forgetting for
Human-in-the-Loop Robotic Control [0.8258451067861933]
パヴロヴィアン・シグナリング(Pavlovian signalling)は、義肢のフィードバックを改善するためのアプローチである。
ひとつの課題は、ユーザがデリバリされたフィードバックでうまく行動し始めると、これまで学んだ予測を忘れてしまうことだ。
この研究は、人工装具から学習した予測フィードバックを提供するという課題に対する新たな洞察に貢献する。
論文 参考訳(メタデータ) (2023-05-16T15:37:16Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Predictive Modeling of Periodic Behavior for Human-Robot Symbiotic
Walking [13.68799310875662]
我々は、インタラクションプリミティブを周期的な運動体制、すなわち歩行に拡張する。
このモデルは、人間の歩行の、データ駆動でカスタマイズされたモデルを学ぶのに特に適していることを示す。
また,ロボット義肢のコントローラーの学習にも,同じフレームワークが利用できることを示す。
論文 参考訳(メタデータ) (2020-05-27T03:30:48Z) - Learning a generative model for robot control using visual feedback [7.171234436165255]
本稿では,ロボット制御に視覚フィードバックを取り入れた新しい定式化を提案する。
モデルにおける推論により,特徴のターゲット位置に対応するロボット状態を推測することができる。
本研究では,不正確な制御を行うロボットに対して,握りとタイトな挿入を実行することで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-03-10T00:34:01Z) - On the interaction between supervision and self-play in emergent
communication [82.290338507106]
本研究は,2つのカテゴリの学習信号と,サンプル効率の向上を目標とする学習信号の関係について検討する。
人間のデータに基づく教師付き学習による初等訓練エージェントが,自己演奏が会話に優れていることが判明した。
論文 参考訳(メタデータ) (2020-02-04T02:35:19Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。