論文の概要: LLMind: Orchestrating AI and IoT with LLM for Complex Task Execution
- arxiv url: http://arxiv.org/abs/2312.09007v3
- Date: Tue, 20 Feb 2024 13:02:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 20:04:09.800792
- Title: LLMind: Orchestrating AI and IoT with LLM for Complex Task Execution
- Title(参考訳): LLMind: 複雑なタスク実行のためのLLMによるAIとIoTのオーケストレーション
- Authors: Hongwei Cui and Yuyang Du and Qun Yang and Yulin Shao and Soung Chang
Liew
- Abstract要約: 複雑なタスクを実行するためのIoTデバイス間で効果的なコラボレーションを可能にするAIエージェントフレームワークであるLLMindを提案する。
脳の機能的特殊化理論に触発されて、我々のフレームワークはLLMをドメイン固有のAIモジュールと統合し、その能力を高める。
- 参考スコア(独自算出の注目度): 20.186752447895994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The exploration of large language models (LLMs) for task planning and IoT
automation has recently gained significant attention. However, existing works
suffer from limitations in terms of resource accessibility, complex task
planning, and efficiency. In this paper, we present LLMind, an LLM-based AI
agent framework that enables effective collaboration among IoT devices for
executing complex tasks. Inspired by the functional specialization theory of
the brain, our framework integrates an LLM with domain-specific AI modules,
enhancing its capabilities. Complex tasks, which may involve collaborations of
multiple domain-specific AI modules and IoT devices, are executed through a
control script generated by the LLM using a Language-Code transformation
approach, which first converts language descriptions to an intermediate
finite-state machine (FSM) before final precise transformation to code.
Furthermore, the framework incorporates a novel experience accumulation
mechanism to enhance response speed and effectiveness, allowing the framework
to evolve and become progressively sophisticated through continuing user and
machine interactions.
- Abstract(参考訳): タスク計画とIoT自動化のための大規模言語モデル(LLM)の探索は、最近大きな注目を集めている。
しかし、既存の作業は、リソースアクセシビリティ、複雑なタスク計画、効率性の制限に悩まされている。
本稿では,複雑なタスクを実行するためのiotデバイス間の効果的なコラボレーションを実現する,llmベースのaiエージェントフレームワークであるllmindを提案する。
脳の機能的特殊化理論に触発されて、我々のフレームワークはLLMをドメイン固有のAIモジュールと統合し、その能力を高める。
複数のドメイン固有のAIモジュールとIoTデバイスのコラボレーションを含む複雑なタスクは、LLMが生成するコントロールスクリプトを通じて実行される。Language-Code変換アプローチは、言語記述をコードへの最終的な正確な変換の前に、まず中間有限状態マシン(FSM)に変換する。
さらに、このフレームワークには、応答速度と有効性を向上する新たなエクスペリエンス蓄積機構が組み込まれており、継続的なユーザとマシンのインタラクションを通じてフレームワークが進化し、徐々に洗練される。
関連論文リスト
- ROS-LLM: A ROS framework for embodied AI with task feedback and structured reasoning [74.58666091522198]
非専門家による直感的なロボットプログラミングのためのフレームワークを提案する。
ロボットオペレーティングシステム(ROS)からの自然言語のプロンプトと文脈情報を活用する
我々のシステムは,大規模言語モデル (LLM) を統合し,非専門家がチャットインタフェースを通じてシステムにタスク要求を記述できるようにする。
論文 参考訳(メタデータ) (2024-06-28T08:28:38Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示す。
本稿では,テキストベースの生成IoT(GIoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - When Large Language Models Meet Optical Networks: Paving the Way for Automation [17.4503217818141]
物理層をインテリジェントに制御し,アプリケーション層との相互作用を効果的に行うことを目的として,LLMを利用した光ネットワークのフレームワークを提案する。
提案手法は,ネットワークアラーム解析とネットワーク性能最適化の2つの典型的なタスクで検証される。
良好な応答精度と2,400個のテスト状況のセマティックな類似性は、光ネットワークにおけるLLMの大きな可能性を示している。
論文 参考訳(メタデータ) (2024-05-14T10:46:33Z) - From Language Models to Practical Self-Improving Computer Agents [0.8547032097715571]
我々は、多様なコンピュータタスクを実行し、自己改善できるAIコンピュータエージェントを作成するための方法論を開発する。
我々は、LLMエージェントに検索、インターネット検索、Webナビゲーション、テキストエディタ機能を増強するよう促す。
このエージェントは、これらの様々なツールを効果的に利用して、自動ソフトウェア開発やWebベースのタスクを含む問題を解決する。
論文 参考訳(メタデータ) (2024-04-18T07:50:10Z) - On the Multi-turn Instruction Following for Conversational Web Agents [83.51251174629084]
本稿では,ユーザと環境の両方で複数回にまたがる高度なインタラクションを必要とする,対話型Webナビゲーションの新たなタスクを紹介する。
本稿では,メモリ利用と自己回帰技術を用いた自己反射型メモリ拡張計画(Self-MAP)を提案する。
論文 参考訳(メタデータ) (2024-02-23T02:18:12Z) - Formal-LLM: Integrating Formal Language and Natural Language for Controllable LLM-based Agents [39.53593677934238]
大規模言語モデル(LLM)により、AIエージェントは複雑なタスクを解決するためのマルチステッププランを自動的に生成し実行することができる。
しかし、現在のLLMベースのエージェントは、しばしば無効または実行不可能な計画を生成する。
本稿では,自然言語の表現性と形式言語の精度を統合することで,LLMをベースとしたエージェントのための新しいフォーマルLLM'フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-01T17:30:50Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - LLM-Based Human-Robot Collaboration Framework for Manipulation Tasks [4.4589894340260585]
本稿では,Large Language Model (LLM) を用いた自律型ロボット操作の論理推論手法を提案する。
提案システムは,LLMとYOLOに基づく環境認識を組み合わせることで,ロボットが自律的に合理的な意思決定を行えるようにする。
論文 参考訳(メタデータ) (2023-08-29T01:54:49Z) - TPTU: Large Language Model-based AI Agents for Task Planning and Tool
Usage [28.554981886052953]
大規模言語モデル(LLM)は、様々な現実世界のアプリケーションのための強力なツールとして登場した。
LLMの本質的な生成能力は、その長所にもかかわらず、複雑なタスクを扱うには不十分である。
本稿では,LLMベースのAIエージェントに適した構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-07T09:22:03Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。