論文の概要: Therapist-Robot-Patient Physical Interaction is Worth a Thousand Words: Enabling Intuitive Therapist Guidance via Remote Haptic Control
- arxiv url: http://arxiv.org/abs/2602.21783v1
- Date: Wed, 25 Feb 2026 11:04:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.806674
- Title: Therapist-Robot-Patient Physical Interaction is Worth a Thousand Words: Enabling Intuitive Therapist Guidance via Remote Haptic Control
- Title(参考訳): セラピスト・ロボット・パティエントな物理的相互作用は数千語の価値:遠隔触覚制御による直感的セラピスト指導の実現
- Authors: Beatrice Luciani, Alex van den Berg, Matti Lang, Alexandre L. Ratschat, Laura Marchal-Crespo,
- Abstract要約: 本研究では,腕外骨格を装着した訓練者の動きを遠隔でガイドし,監視するための触覚遠隔操作システムを提案する。
トレーナーは、外骨格の肘と手首の仮想接触点を介して、商業用ハンドヘルド触覚装置を介して外骨格と物理的に相互作用することができる。
被験者32人が訓練者-訓練者のパラダイムでこのシステムをテストし、我々のハプティック・デモシステムと従来の視覚的デモシステムを比較した。
- 参考スコア(独自算出の注目度): 36.94429692322632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic systems can enhance the amount and repeatability of physically guided motor training. Yet their real-world adoption is limited, partly due to non-intuitive trainer/therapist-trainee/patient interactions. To address this gap, we present a haptic teleoperation system for trainers to remotely guide and monitor the movements of a trainee wearing an arm exoskeleton. The trainer can physically interact with the exoskeleton through a commercial handheld haptic device via virtual contact points at the exoskeleton's elbow and wrist, allowing intuitive guidance. Thirty-two participants tested the system in a trainer-trainee paradigm, comparing our haptic demonstration system with conventional visual demonstration in guiding trainees in executing arm poses. Quantitative analyses showed that haptic demonstration significantly reduced movement completion time and improved smoothness, while speech analysis using large language models for automated transcription and categorization of verbal commands revealed fewer verbal instructions. The haptic demonstration did not result in higher reported mental and physical effort by trainers compared to the visual demonstration, while trainers reported greater competence and trainees lower physical demand. These findings support the feasibility of our proposed interface for effective remote human-robot physical interaction. Future work should assess its usability and efficacy for clinical populations in restoring clinicians' sense of agency during robot-assisted therapy.
- Abstract(参考訳): ロボットシステムは、物理的に指導された運動訓練の量と再現性を高めることができる。
しかし,非直感的トレーナー/セラピスト/患者間の相互作用が原因で,実世界での採用は限られている。
このギャップに対処するために,訓練者が腕外骨格を装着した訓練者の動きを遠隔でガイドし,監視するための触覚遠隔操作システムを提案する。
トレーナーは、外骨格の肘と手首の仮想接触点を介して、商業用ハンドヘルド触覚装置を介して外骨格と物理的に相互作用し、直感的な誘導を可能にする。
被験者32人が訓練者-訓練者のパラダイムでこのシステムをテストし、我々のハプティック・デモシステムと従来の視覚的デモシステムを比較した。
定量的分析により, 触覚的表現は動作完了時間を大幅に短縮し, 滑らかさが向上した。
触覚的なデモンストレーションは、視覚的なデモンストレーションに比べて、トレーナーの精神的および身体的努力の度合いは高くなかったが、トレーナーは体力の低下と体力の低下を報告した。
これらの知見は,遠隔ロボットの物理的相互作用に有効なインタフェースの実現可能性を支持するものである。
今後は, ロボット支援療法における臨床医のエージェント感覚の回復における有用性と有効性を評価することが必要である。
関連論文リスト
- Casper: Inferring Diverse Intents for Assistive Teleoperation with Vision Language Models [50.19518681574399]
現実の遠隔操作における中心的な課題は、ロボットがユーザー制御入力から幅広い人間の意図を推測することである。
我々は、事前学習された視覚言語モデルに埋め込まれたコモンセンス知識を活用する、支援型遠隔操作システムであるCasperを紹介する。
我々は,Casperがタスク性能を改善し,人間の認知負荷を低減し,直接遠隔操作や補助遠隔操作のベースラインよりもユーザ満足度が高いことを示す。
論文 参考訳(メタデータ) (2025-06-17T17:06:43Z) - Human sensory-musculoskeletal modeling and control of whole-body movements [10.253693485647444]
感覚筋骨格系の動的モデルの構築は、運動制御の理解と人間の行動の調査に不可欠である。
骨,関節,筋腱の正確な解剖学的表現を統合した,SMS-Humanと呼ばれるヒトの感覚・筋骨格モデルについて報告する。
論文 参考訳(メタデータ) (2025-05-29T16:42:08Z) - Imitation Learning for Adaptive Control of a Virtual Soft Exoglove [3.3030080038744947]
本研究では,特定の筋力障害に対処し,手動操作作業に対する補償を提供するウェアラブルロボットコントローラを提案する。
人間の把握タスクを実行する同じ被験者のビデオデータは、実演から学習して操作モデルを訓練するために使用される。
この操作モデルはその後、オブジェクト固有のインタラクションタスクを実行するために微調整される。
筋骨格操作モデルにおける筋力は、後に仮想ウェアラブルロボットグローブの作動によって補償される神経運動障害をシミュレートするために弱められる。
論文 参考訳(メタデータ) (2025-05-14T03:09:21Z) - Moto: Latent Motion Token as the Bridging Language for Learning Robot Manipulation from Videos [101.26467307473638]
我々はMotoを紹介する。Motoは、映像コンテンツをラテントモーションTokenizerでラテントモーションTokenシーケンスに変換する。
我々は、モーショントークンによるMoto-GPTの事前学習を行い、多様な視覚的動きの知識を捉えることができる。
実際のロボット動作に先立って学習した動きを転送するために、潜伏した動きのトークン予測と実際のロボット制御をシームレスにブリッジするコファインチューニング戦略を実装した。
論文 参考訳(メタデータ) (2024-12-05T18:57:04Z) - Multi-Modal Self-Supervised Learning for Surgical Feedback Effectiveness Assessment [66.6041949490137]
そこで本研究では,音声による音声入力とそれに対応する手術映像からの情報を統合して,フィードバックの有効性を予測する手法を提案する。
以上の結果から,手書きフィードバックと手術映像の両方が,訓練者の行動変化を個別に予測できることがわかった。
本研究は,手術フィードバックの自動評価を推進するためのマルチモーダル学習の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-17T00:13:00Z) - Continual Learning from Simulated Interactions via Multitask Prospective Rehearsal for Bionic Limb Behavior Modeling [0.7922558880545526]
生体補綴制御の文脈における人間の行動モデルを提案する。
本稿では、時間とともに動きを予測・洗練するマルチタスク・継続的適応モデルを提案する。
我々は,トランスティバイアル・アンプを含む実世界の人間の歩行データセットの実験を通じて,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-05-02T09:22:54Z) - Design, Development, and Evaluation of an Interactive Personalized
Social Robot to Monitor and Coach Post-Stroke Rehabilitation Exercises [68.37238218842089]
パーソナライズされたリハビリテーションのための対話型ソーシャルロボット運動指導システムを開発した。
このシステムは、ニューラルネットワークモデルとルールベースのモデルを統合し、患者のリハビリテーション運動を自動的に監視し、評価する。
我々のシステムは,新たな参加者に適応し,専門家の合意レベルに匹敵する,エクササイズを評価するための平均パフォーマンス0.81を達成できる。
論文 参考訳(メタデータ) (2023-05-12T17:37:04Z) - Enabling AI and Robotic Coaches for Physical Rehabilitation Therapy:
Iterative Design and Evaluation with Therapists and Post-Stroke Survivors [66.07833535962762]
人工知能(AI)とロボットコーチは、社会的相互作用を通じてリハビリテーション運動における患者の関与を改善することを約束する。
これまでの研究は、AIやロボットコーチの運動を自動的に監視する可能性を探ったが、デプロイは依然として難しい課題だ。
我々は,AIとロボットコーチが患者の運動をどのように操作し,指導するかに関する詳細な設計仕様を提示する。
論文 参考訳(メタデータ) (2021-06-15T22:06:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。