論文の概要: LLMind: Orchestrating AI and IoT with LLMs for Complex Task Execution
- arxiv url: http://arxiv.org/abs/2312.09007v2
- Date: Sat, 6 Jan 2024 07:27:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 21:58:09.902060
- Title: LLMind: Orchestrating AI and IoT with LLMs for Complex Task Execution
- Title(参考訳): LLMind: 複雑なタスク実行のためのLLMによるAIとIoTのオーケストレーション
- Authors: Hongwei Cui and Yuyang Du and Qun Yang and Yulin Shao and Soung Chang
Liew
- Abstract要約: 本稿では,大規模言語モデル(LLM)を中央オーケストレータとして利用するAIフレームワークであるLLMindを紹介する。
このフレームワークはLLMとドメイン固有のAIモジュールを統合し、複雑なタスクの実行においてIoTデバイスが効果的に協力できるようにする。
- 参考スコア(独自算出の注目度): 20.186752447895994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce LLMind, an AI framework that utilizes large
language models (LLMs) as a central orchestrator. The framework integrates LLMs
with domain-specific AI modules, enabling IoT devices to collaborate
effectively in executing complex tasks. The LLM engages in natural
conversations with human users via a user-friendly social media platform to
come up with a plan to execute complex tasks. In particular, the execution of a
complex task, which may involve the collaborations of multiple domain-specific
AI modules and IoT devices, is realized through a control script. The LLM
generates the control script using a Language-Code transformation approach
based on finite-state machines (FSMs). The framework also incorporates semantic
analysis and response optimization techniques to enhance speed and
effectiveness. Ultimately, this framework is designed not only to innovate IoT
device control and enrich user experiences but also to foster an intelligent
and integrated IoT device ecosystem that evolves and becomes more sophisticated
through continuing user and machine interactions.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)を中央オーケストレータとして利用するAIフレームワークであるLLMindを紹介する。
このフレームワークはLLMとドメイン固有のAIモジュールを統合し、複雑なタスクの実行においてIoTデバイスが効果的に協力できるようにする。
LLMは、ユーザフレンドリーなソーシャルメディアプラットフォームを通じて、人間と自然な会話を行い、複雑なタスクを実行する計画を立てている。
特に、複数のドメイン固有のAIモジュールとIoTデバイスのコラボレーションを含む複雑なタスクの実行は、コントロールスクリプトを通じて実現される。
LLMは有限状態機械(FSM)に基づく言語コード変換アプローチを用いて制御スクリプトを生成する。
フレームワークにはセマンティック分析と応答最適化技術も組み込まれ、スピードと効率性を高めている。
最終的にこのフレームワークは、IoTデバイスコントロールの革新とユーザエクスペリエンスの強化だけでなく、ユーザとマシンのインタラクションの継続を通じて進化し、より高度なものとなる、インテリジェントで統合されたIoTデバイスエコシステムを育むように設計されている。
関連論文リスト
- From Language Models to Practical Self-Improving Computer Agents [0.8547032097715571]
我々は、多様なコンピュータタスクを実行し、自己改善できるAIコンピュータエージェントを作成するための方法論を開発する。
我々は、LLMエージェントに検索、インターネット検索、Webナビゲーション、テキストエディタ機能を増強するよう促す。
このエージェントは、これらの様々なツールを効果的に利用して、自動ソフトウェア開発やWebベースのタスクを含む問題を解決する。
論文 参考訳(メタデータ) (2024-04-18T07:50:10Z) - On the Multi-turn Instruction Following for Conversational Web Agents [83.51251174629084]
本稿では,ユーザと環境の両方で複数回にまたがる高度なインタラクションを必要とする,対話型Webナビゲーションの新たなタスクを紹介する。
本稿では,メモリ利用と自己回帰技術を用いた自己反射型メモリ拡張計画(Self-MAP)を提案する。
論文 参考訳(メタデータ) (2024-02-23T02:18:12Z) - Formal-LLM: Integrating Formal Language and Natural Language for
Controllable LLM-based Agents [42.41596981580518]
大規模言語モデル(LLM)により、AIエージェントは複雑なタスクを解決するためのマルチステッププランを自動的に生成し実行することができる。
しかし、現在のLLMベースのエージェントは、しばしば無効または実行不可能な計画を生成する。
本稿では,自然言語の表現性と形式言語の精度を統合することで,LLMをベースとしたエージェントのための新しいフォーマルLLM'フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-01T17:30:50Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - LLM-Based Human-Robot Collaboration Framework for Manipulation Tasks [4.4589894340260585]
本稿では,Large Language Model (LLM) を用いた自律型ロボット操作の論理推論手法を提案する。
提案システムは,LLMとYOLOに基づく環境認識を組み合わせることで,ロボットが自律的に合理的な意思決定を行えるようにする。
論文 参考訳(メタデータ) (2023-08-29T01:54:49Z) - TPTU: Large Language Model-based AI Agents for Task Planning and Tool
Usage [28.554981886052953]
大規模言語モデル(LLM)は、様々な現実世界のアプリケーションのための強力なツールとして登場した。
LLMの本質的な生成能力は、その長所にもかかわらず、複雑なタスクを扱うには不十分である。
本稿では,LLMベースのAIエージェントに適した構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-07T09:22:03Z) - Language to Rewards for Robotic Skill Synthesis [37.21434094015743]
我々は,大規模言語モデル(LLM)を利用して,様々なロボットタスクを最適化し,達成可能な報酬パラメータを定義する新しいパラダイムを提案する。
LLMが生成する中間インタフェースとして報酬を用いることで、ハイレベルな言語命令と修正のギャップを、低レベルなロボット動作に効果的に埋めることができる。
論文 参考訳(メタデータ) (2023-06-14T17:27:10Z) - SwiftSage: A Generative Agent with Fast and Slow Thinking for Complex
Interactive Tasks [81.9962823875981]
我々は、人間の認知の二重プロセス理論に触発された新しいエージェントフレームワークSwiftSageを紹介する。
フレームワークは、高速で直感的な思考を表すSwiftモジュールと、意図的な思考プロセスをエミュレートするSageモジュールの2つの主要なモジュールで構成されている。
ScienceWorldベンチマークの30タスクでは、SwiftSageはSayCan、ReAct、Reflexといった他のメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-05-27T07:04:15Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。