論文の概要: LAMS: LLM-Driven Automatic Mode Switching for Assistive Teleoperation
- arxiv url: http://arxiv.org/abs/2501.08558v1
- Date: Wed, 15 Jan 2025 03:49:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:52:58.220469
- Title: LAMS: LLM-Driven Automatic Mode Switching for Assistive Teleoperation
- Title(参考訳): LAMS: 補助遠隔操作のためのLCM駆動自動モードスイッチング
- Authors: Yiran Tao, Jehan Yang, Dan Ding, Zackory Erickson,
- Abstract要約: LLM-Driven Automatic Mode Switching (LAMS)を導入し,タスクコンテキストに基づいて制御モードを自動的に切り替える手法を提案する。
既存の方法とは異なり、LAMSは事前のタスクデモを必要とせず、ユーザー生成モードスイッチングの例を統合することで漸進的に改善する。
我々は,LAMSが手動モードスイッチを効果的に減らし,代替手法よりも好まれることを示すとともに,時間とともにパフォーマンスの向上を図っている。
- 参考スコア(独自算出の注目度): 4.22823627787465
- License:
- Abstract: Teleoperating high degrees-of-freedom (DoF) robotic manipulators via low-DoF controllers like joysticks often requires frequent switching between control modes, where each mode maps controller movements to specific robot actions. Manually performing this frequent switching can make teleoperation cumbersome and inefficient. On the other hand, existing automatic mode-switching solutions, such as heuristic-based or learning-based methods, are often task-specific and lack generalizability. In this paper, we introduce LLM-Driven Automatic Mode Switching (LAMS), a novel approach that leverages Large Language Models (LLMs) to automatically switch control modes based on task context. Unlike existing methods, LAMS requires no prior task demonstrations and incrementally improves by integrating user-generated mode-switching examples. We validate LAMS through an ablation study and a user study with 10 participants on complex, long-horizon tasks, demonstrating that LAMS effectively reduces manual mode switches, is preferred over alternative methods, and improves performance over time. The project website with supplementary materials is at https://lams-assistance.github.io/.
- Abstract(参考訳): 高自由度(DoF)ロボットマニピュレータをジョイスティックのような低自由度コントローラで遠隔操作するには、制御モードを頻繁に切り替える必要がある。
この頻繁な切り替えを手動で行うと、遠隔操作が面倒で非効率になる。
一方、ヒューリスティックベースの手法や学習ベースの手法など、既存の自動モードスイッチングソリューションはタスク固有であり、一般化性に欠けることが多い。
本稿では,LLM-Driven Automatic Mode Switching (LAMS)を導入し,Large Language Models (LLM) を利用してタスクコンテキストに基づいて制御モードを自動的に切り替える手法を提案する。
既存の方法とは異なり、LAMSは事前のタスクデモを必要とせず、ユーザー生成モードスイッチングの例を統合することで漸進的に改善する。
我々は,LAMSが手動モードスイッチを効果的に減らし,代替手法よりも好まれることを示すとともに,時間とともにパフォーマンスの向上を図っている。
追加資料のあるプロジェクトのWebサイトはhttps://lams-assistance.github.io/にある。
関連論文リスト
- MALMM: Multi-Agent Large Language Models for Zero-Shot Robotics Manipulation [52.739500459903724]
大規模言語モデル(LLM)は、ロボティクスの操作やナビゲーションなど、さまざまな領域にまたがる優れた計画能力を示している。
特殊なLLMエージェント間で高レベル計画および低レベル制御コード生成を分散する新しいマルチエージェントLLMフレームワークを提案する。
長軸タスクを含む9つのRLBenchタスクに対するアプローチを評価し、ゼロショット環境でロボット操作を解く能力を実証した。
論文 参考訳(メタデータ) (2024-11-26T17:53:44Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Sparse Diffusion Policy: A Sparse, Reusable, and Flexible Policy for Robot Learning [61.294110816231886]
我々はスパース・リユース・フレキシブル・ポリシー、スパース・ディフュージョン・ポリシー(SDP)を導入する。
SDPは、エキスパートとスキルを選択的に活性化し、モデル全体をトレーニングすることなく、効率的でタスク固有の学習を可能にする。
デモとコードはhttps://forrest-110.io/sparse_diffusion_policy/にある。
論文 参考訳(メタデータ) (2024-07-01T17:59:56Z) - MOSEAC: Streamlined Variable Time Step Reinforcement Learning [14.838483990647697]
マルチ目的ソフト・エクササイズ・アクタ・クライブ法(MOSEAC)を提案する。
MOSEACは、トレーニング中のタスク報酬の観測傾向に基づく適応型報酬スキームを特徴とする。
ニュートンのキネマティクス環境におけるシミュレーションによりMOSEAC法の有効性を検証した。
論文 参考訳(メタデータ) (2024-06-03T16:51:57Z) - In Time and Space: Towards Usable Adaptive Control for Assistive Robotic
Arms [5.988522447941765]
ロボットアームは、ユーザーがタスクを実行するためにいくつかの自由度(DoF)を制御する必要がある。
Modern Adaptive DoF Mapping Controls (ADMC) は、必要なモードスイッチ数を削減できたが、これまでは認識された作業負荷を大幅に削減できなかった。
我々は、ADMCのリコメンデーションを更新してフィードフォワードのマルチモーダルフィードバックを提供することによって、この問題に対処する。
論文 参考訳(メタデータ) (2023-07-06T11:51:43Z) - Disturbance Injection under Partial Automation: Robust Imitation
Learning for Long-horizon Tasks [11.554935619056819]
知的支援システムを備えた部分自動化(PA)が産業機械や先進自動車に導入されている。
本稿では、新しい模倣学習フレームワークとして、部分的自動化下での外乱注入(DIPA)を提案する。
本手法の有効性を2つのシミュレーションと実ロボット環境において実験的に検証した。
論文 参考訳(メタデータ) (2023-03-22T08:22:12Z) - M$^3$ViT: Mixture-of-Experts Vision Transformer for Efficient Multi-task
Learning with Model-Accelerator Co-design [95.41238363769892]
マルチタスク学習(MTL)は、複数の学習タスクを単一のモデルにカプセル化し、それらのタスクを共同でよりよく学習できるようにする。
現在のMTLレギュレータは、1つのタスクだけを実行するためにさえ、ほぼすべてのモデルを起動する必要がある。
効率的なオンデバイスMTLを実現するためのモデル-アクセラレータ共設計フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-26T15:40:24Z) - A Meta-Reinforcement Learning Approach to Process Control [3.9146761527401424]
メタラーニングは、ニューラルネットワークなどのモデルを迅速に適応させ、新しいタスクを実行することを目的としています。
制御器を構築し,別の埋め込みニューラルネットワークを用いて潜在コンテキスト変数を用いて制御器をメタトレーニングする。
どちらの場合も、メタラーニングアルゴリズムは新しいタスクに非常に迅速に適応し、ゼロから訓練された通常のDRLコントローラよりも優れています。
論文 参考訳(メタデータ) (2021-03-25T18:20:56Z) - Controllable Pareto Multi-Task Learning [55.945680594691076]
マルチタスク学習システムは,複数のタスクを同時に解決することを目的としている。
固定されたモデルキャパシティでは、タスクは互いに衝突し、システムは通常、それらすべてを学ぶためにトレードオフをしなければならない。
本研究では,異なるタスク間のリアルタイムなトレードオフ制御を実現するための,新しい制御可能なマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T11:53:55Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。