論文の概要: Training microrobots to swim by a large language model
- arxiv url: http://arxiv.org/abs/2402.00044v1
- Date: Sun, 21 Jan 2024 12:18:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-04 05:10:37.301578
- Title: Training microrobots to swim by a large language model
- Title(参考訳): 大きな言語モデルで泳ぐためのマイクロロボットの訓練
- Authors: Zhuoqun Xu and Lailai Zhu
- Abstract要約: 我々は5つの文からなる最小限の統一的なプロンプトを開発する。
同じプロンプトは、2つの明瞭なマイクロロボットをシグネチャストロークをマスターすることに成功した。
LLMに基づく意思決定戦略は,学習速度において従来の強化学習手法を大幅に上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning and artificial intelligence have recently represented a
popular paradigm for designing and optimizing robotic systems across various
scales. Recent studies have showcased the innovative application of large
language models (LLMs) in industrial control [1] and in directing legged
walking robots [2]. In this study, we utilize an LLM, GPT-4, to train two
prototypical microrobots for swimming in viscous fluids. Adopting a few-shot
learning approach, we develop a minimal, unified prompt composed of only five
sentences. The same concise prompt successfully guides two distinct articulated
microrobots -- the three-link swimmer and the three-sphere swimmer -- in
mastering their signature strokes. These strokes, initially conceptualized by
physicists, are now effectively interpreted and applied by the LLM, enabling
the microrobots to circumvent the physical constraints inherent to
micro-locomotion. Remarkably, our LLM-based decision-making strategy
substantially surpasses a traditional reinforcement learning method in terms of
training speed. We discuss the nuanced aspects of prompt design, particularly
emphasizing the reduction of monetary expenses of using GPT-4.
- Abstract(参考訳): 機械学習と人工知能は、さまざまなスケールでロボットシステムを設計および最適化するための一般的なパラダイムである。
近年の研究では、大型言語モデル(llm)の産業制御における革新的応用([1])と脚歩行ロボットの誘導([2])が紹介されている。
本研究では,LLM,GPT-4を用いて,粘性流体中を泳ぐための2つの原型マイクロロボットを訓練する。
少数の学習アプローチを採用し、わずか5文からなる最小の統一的なプロンプトを開発した。
同じ簡潔なプロンプトは、3リンクスイマーと3球スイマーの2つの明瞭なマイクロロボットを、それぞれの署名ストロークの習得に成功させた。
これらのストロークは物理学者によって概念化され、現在ではllmによって効果的に解釈され適用され、マイクロロボットはマイクロロコモーションに固有の物理的制約を回避できる。
LLMに基づく意思決定戦略は,学習速度において従来の強化学習手法を大幅に上回っている。
我々は急激な設計の難しさ、特にGPT-4の使用による金銭支出の削減を強調した点について論じる。
関連論文リスト
- Enhancing the LLM-Based Robot Manipulation Through Human-Robot Collaboration [4.2460673279562755]
大規模言語モデル(LLM)はロボット工学の分野で人気を集めている。
本稿では,人間ロボットコラボレーション(HRC)によるLLMに基づく自律操作の性能向上のための新しいアプローチを提案する。
このアプローチでは、高レベルの言語コマンドをロボットによって実行できる一連の動作に分解するために、引き起こされたGPT-4言語モデルを使用する。
論文 参考訳(メタデータ) (2024-06-20T08:23:49Z) - LLARVA: Vision-Action Instruction Tuning Enhances Robot Learning [50.99807031490589]
LLARVAは,ロボット学習タスク,シナリオ,環境を統一するための,新しい指導指導法で訓練されたモデルである。
我々は,Open X-Embodimentデータセットから8.5Mの画像-視覚的トレースペアを生成し,モデルを事前学習する。
実験によって強い性能が得られ、LLARVAは現代のいくつかのベースラインと比較してよく機能することを示した。
論文 参考訳(メタデータ) (2024-06-17T17:55:29Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Mastering Robot Manipulation with Multimodal Prompts through Pretraining and Multi-task Fine-tuning [49.92517970237088]
我々はマルチモーダルなプロンプトを理解するためにロボットを訓練する問題に取り組む。
このようなタスクは、視覚と言語信号の相互接続と相補性を理解するロボットの能力にとって大きな課題となる。
マルチモーダルプロンプトを用いてロボット操作を行うためのポリシーを学習する効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-14T22:24:58Z) - Navigation of micro-robot swarms for targeted delivery using
reinforcement learning [0.0]
Inforcement Learning (RL) アルゴリズムをPPO(Proximal Policy Optimization) とRPO(Robust Policy Optimization) を用いて,4,9,16マイクロスウィマーの群を探索する。
PPOとRPOの両方のパフォーマンスを、限られた状態情報シナリオで調べ、また、ランダムな目標位置とサイズに対するロバスト性をテストする。
論文 参考訳(メタデータ) (2023-06-30T12:17:39Z) - IIFL: Implicit Interactive Fleet Learning from Heterogeneous Human
Supervisors [20.182639914630514]
Implicit Interactive Fleet Learning (IIFL) は、Implicit Behavior Cloning (IBC) に基づく、インタラクティブな模倣学習のためのアルゴリズムである。
IIFLはシミュレーション実験で2.8倍の成功率、人間の努力で4.5倍のリターンを達成する。
論文 参考訳(メタデータ) (2023-06-27T06:02:44Z) - Language to Rewards for Robotic Skill Synthesis [37.21434094015743]
我々は,大規模言語モデル(LLM)を利用して,様々なロボットタスクを最適化し,達成可能な報酬パラメータを定義する新しいパラダイムを提案する。
LLMが生成する中間インタフェースとして報酬を用いることで、ハイレベルな言語命令と修正のギャップを、低レベルなロボット動作に効果的に埋めることができる。
論文 参考訳(メタデータ) (2023-06-14T17:27:10Z) - AlphaBlock: Embodied Finetuning for Vision-Language Reasoning in Robot
Manipulation [50.737355245505334]
本稿では,ロボット操作タスクにおける高レベル認知能力を学習するための新しいフレームワークを提案する。
得られたデータセットAlphaBlockは、多段階のテキストプランとペア観測による35の包括的なハイレベルタスクで構成されている。
論文 参考訳(メタデータ) (2023-05-30T09:54:20Z) - Deep learning applied to computational mechanics: A comprehensive
review, state of the art, and the classics [77.34726150561087]
人工知能,特に深層学習(DL)の最近の進歩を概観する。
ハイブリッドおよび純粋機械学習(ML)の手法について論じる。
AIの歴史と限界は、特に古典の誤解や誤解を指摘し、議論され、議論される。
論文 参考訳(メタデータ) (2022-12-18T02:03:00Z) - METRO: Efficient Denoising Pretraining of Large Scale Autoencoding
Language Models with Model Generated Signals [151.3601429216877]
本稿では,補助モデルにより生成された学習信号を用いて,大規模自動符号化言語モデルの事前学習を行う。
我々は「モデル生成dEnoising TRaining Objective」(METRO)というレシピを提案する。
結果、最大54億のパラメータからなるMETRO-LMは、GLUE、SuperGLUE、SQuADベンチマークで新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-04-13T21:39:15Z) - Smart Magnetic Microrobots Learn to Swim with Deep Reinforcement
Learning [0.0]
深層強化学習は、スマートなマイクロロボットを作るための堅牢なコントローラを自律的に開発するための有望な方法である。
本稿では,ソフトアクター評論家強化学習アルゴリズムを用いて制御ポリシを自律的に導出するスマートヘリカル磁性ハイドロゲルマイクロロボットの開発について報告する。
強化学習エージェントは10万歩未満のトレーニングステップで制御ポリシを成功させ、高速学習のためのサンプル効率を実証した。
論文 参考訳(メタデータ) (2022-01-14T18:42:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。