論文の概要: Hand by Hand: LLM Driving EMS Assistant for Operational Skill Learning
- arxiv url: http://arxiv.org/abs/2508.06000v1
- Date: Fri, 08 Aug 2025 04:05:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.074596
- Title: Hand by Hand: LLM Driving EMS Assistant for Operational Skill Learning
- Title(参考訳): ハンド・バイ・ハンド: LLM Driving EMS Assistant for Operational Skill Learning
- Authors: Wei Xiang, Ziyue Lei, Haoyuan Che, Fangyuan Ye, Xueting Wu, Lingyun Sun,
- Abstract要約: 操作スキル学習は、本質的には身体的であり、手持ちの練習や審美的フィードバックに頼っているが、大きな言語モデル(LLM)をサポートする訓練では、まだ効果的に再現されていない。
本研究は, LLMによる審美支援の人間の経験を探求するものである。
- 参考スコア(独自算出の注目度): 15.235770229561595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Operational skill learning, inherently physical and reliant on hands-on practice and kinesthetic feedback, has yet to be effectively replicated in large language model (LLM)-supported training. Current LLM training assistants primarily generate customized textual feedback, neglecting the crucial kinesthetic modality. This gap derives from the textual and uncertain nature of LLMs, compounded by concerns on user acceptance of LLM driven body control. To bridge this gap and realize the potential of collaborative human-LLM action, this work explores human experience of LLM driven kinesthetic assistance. Specifically, we introduced an "Align-Analyze-Adjust" strategy and developed FlightAxis, a tool that integrates LLM with Electrical Muscle Stimulation (EMS) for flight skill acquisition, a representative operational skill domain. FlightAxis learns flight skills from manuals and guides forearm movements during simulated flight tasks. Our results demonstrate high user acceptance of LLM-mediated body control and significantly reduced task completion times. Crucially, trainees reported that this kinesthetic assistance enhanced their awareness of operation flaws and fostered increased engagement in the training process, rather than relieving perceived load. This work demonstrated the potential of kinesthetic LLM training in operational skill acquisition.
- Abstract(参考訳): 操作スキル学習は、本質的には身体的であり、手持ちの練習や審美的フィードバックに頼っているが、大きな言語モデル(LLM)をサポートする訓練では、まだ効果的に再現されていない。
現在のLLMトレーニングアシスタントは、重要な審美的モダリティを無視して、主にカスタマイズされたテキストフィードバックを生成する。
このギャップはLLMのテキスト的・不確実性に起因しており、LLM駆動体制御のユーザ受け入れに関する懸念が混ざり合っている。
このギャップを埋め、協調的ヒト-LLM行動の可能性を実現するために、この研究はLLMによる審美支援の人間の経験を探求する。
具体的には、「Align-Analyze-Adjust」戦略を導入し、LCMとEMSを統合したフライトスキル獲得のためのFlightAxisを開発した。
FlightAxisは、マニュアルから飛行スキルを学び、シミュレートされた飛行作業中に前腕の動きをガイドする。
以上の結果から,LLMによる身体制御のユーザ受け入れが向上し,タスク完了時間が大幅に短縮された。
重要なこととして、訓練生は、この審美的補助は、知覚される負荷を軽減せず、手術の欠陥に対する認識を高め、訓練プロセスへの関与を促進させたと報告した。
本研究は, 手術技能獲得における審美的LLMトレーニングの可能性を示した。
関連論文リスト
- Knowledge Insulating Vision-Language-Action Models: Train Fast, Run Fast, Generalize Better [58.559985503802054]
視覚言語アクション(VLA)モデルは、エンド・ツー・エンドの学習とWebスケール視覚言語モデル(VLM)トレーニングからの意味知識の伝達を組み合わせたモデルである。
最も強力なVLMは数十億から数百億のパラメータを持ち、リアルタイム推論の障害となる。
近年のVLAモデルは、アクションエキスパートや連続出力ヘッドのような効率的な連続制御のための特別なモジュールを使用している。
このような専門家を内面的に含むと、トレーニング速度と知識伝達の両方に悪影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2025-05-29T17:40:09Z) - Training LLM-Based Agents with Synthetic Self-Reflected Trajectories and Partial Masking [61.61356842567952]
LLMに基づくエージェントトレーニングを改善するための新しい手法STePを提案する。
誤差ステップの反射や補正を含む自己反射軌道を合成する。
実験により,提案手法は3つの代表的なタスクにおいてエージェント性能を向上させることが示された。
論文 参考訳(メタデータ) (2025-05-26T14:11:12Z) - LLMs Could Autonomously Learn Without External Supervision [36.36147944680502]
大規模言語モデル(LLM)は、伝統的に人間の注釈付きデータセットと事前定義されたトレーニング目標に結び付けられてきた。
本稿では,LLMのための自律学習手法を提案する。
本手法は, LLMに対して, 文章と直接対話して自己学習を行う能力を与える。
論文 参考訳(メタデータ) (2024-06-02T03:36:37Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Empowering Large Language Model Agents through Action Learning [85.39581419680755]
大規模言語モデル(LLM)エージェントは最近ますます関心を集めているが、試行錯誤から学ぶ能力は限られている。
我々は、経験から新しい行動を学ぶ能力は、LLMエージェントの学習の進歩に欠かせないものであると論じる。
我々はPython関数の形式でアクションを作成し改善するための反復学習戦略を備えたフレームワークLearningActを紹介した。
論文 参考訳(メタデータ) (2024-02-24T13:13:04Z) - Offline Training of Language Model Agents with Functions as Learnable Weights [39.88545362699836]
LLM重みを変更することなくLLM(Large Language Models)エージェントを訓練する新しいパラダイムを提案する。
LLMを利用してエージェントの機能を更新し、ロールバックとアーリーストップという2つの戦略でエージェントトレーニングアルゴリズムを考案するエージェントを開発する。
広範囲な実験により、エージェント訓練パラダイムが代表的LLMエージェントの性能を大幅に改善できることが示される。
論文 参考訳(メタデータ) (2024-02-17T18:31:21Z) - Guiding Pretraining in Reinforcement Learning with Large Language Models [133.32146904055233]
テキストコーパスからの背景知識を用いて探索を図形化する手法について述べる。
このメソッドはELLMと呼ばれ、言語モデルによって提案される目標を達成するエージェントに報酬を与える。
大規模な言語モデルの事前訓練を活用することで、ELLMはエージェントをループに人間を必要とせず、人間に有意義で、もっとも有用な行動へと導く。
論文 参考訳(メタデータ) (2023-02-13T21:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。