論文の概要: AgentLite: A Lightweight Library for Building and Advancing
Task-Oriented LLM Agent System
- arxiv url: http://arxiv.org/abs/2402.15538v1
- Date: Fri, 23 Feb 2024 06:25:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 18:10:16.279732
- Title: AgentLite: A Lightweight Library for Building and Advancing
Task-Oriented LLM Agent System
- Title(参考訳): AgentLite:タスク指向LLMエージェントシステムの構築と改善のための軽量ライブラリ
- Authors: Zhiwei Liu, Weiran Yao, Jianguo Zhang, Liangwei Yang, Zuxin Liu,
Juntao Tan, Prafulla K. Choubey, Tian Lan, Jason Wu, Huan Wang, Shelby
Heinecke, Caiming Xiong, Silvio Savarese
- Abstract要約: LLMエージェントの研究を簡略化する新しいAIエージェントライブラリであるAgentLiteをオープンソースとして公開する。
AgentLiteは、タスクを分解するエージェントの機能を強化するために設計されたタスク指向フレームワークである。
我々は,その利便性と柔軟性を示すために,AgentLiteで開発された実用アプリケーションを紹介した。
- 参考スコア(独自算出の注目度): 91.41155892086252
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The booming success of LLMs initiates rapid development in LLM agents. Though
the foundation of an LLM agent is the generative model, it is critical to
devise the optimal reasoning strategies and agent architectures. Accordingly,
LLM agent research advances from the simple chain-of-thought prompting to more
complex ReAct and Reflection reasoning strategy; agent architecture also
evolves from single agent generation to multi-agent conversation, as well as
multi-LLM multi-agent group chat. However, with the existing intricate
frameworks and libraries, creating and evaluating new reasoning strategies and
agent architectures has become a complex challenge, which hinders research
investigation into LLM agents. Thus, we open-source a new AI agent library,
AgentLite, which simplifies this process by offering a lightweight,
user-friendly platform for innovating LLM agent reasoning, architectures, and
applications with ease. AgentLite is a task-oriented framework designed to
enhance the ability of agents to break down tasks and facilitate the
development of multi-agent systems. Furthermore, we introduce multiple
practical applications developed with AgentLite to demonstrate its convenience
and flexibility. Get started now at:
\url{https://github.com/SalesforceAIResearch/AgentLite}.
- Abstract(参考訳): LLMの爆発的成功により、LLM剤の急速な開発が開始される。
LLMエージェントの基礎は生成モデルであるが、最適な推論戦略とエージェントアーキテクチャを考案することが重要である。
LLMエージェントの研究は、単純なチェーン・オブ・シントから、より複雑なReActおよびReflection推論戦略へと発展し、エージェントアーキテクチャは、シングルエージェント生成からマルチエージェント会話、マルチLLMマルチエージェントグループチャットへと進化する。
しかし、既存の複雑なフレームワークやライブラリにより、新しい推論戦略とエージェントアーキテクチャの作成と評価は複雑な課題となり、LCMエージェントの研究を妨げている。
そこで我々は、LLMエージェント推論、アーキテクチャ、アプリケーションを簡単に革新するための軽量でユーザフレンドリなプラットフォームを提供することで、このプロセスを単純化する新しいAIエージェントライブラリであるAgentLiteをオープンソース化した。
agentliteは、エージェントがタスクを分解し、マルチエージェントシステムの開発を容易にするように設計されたタスク指向フレームワークである。
さらに,その利便性と柔軟性を実証するために, agentlite で開発された複数の実用的応用を紹介する。
まずは次の通り。 \url{https://github.com/SalesforceAIResearch/AgentLite}。
関連論文リスト
- AgentSquare: Automatic LLM Agent Search in Modular Design Space [16.659969168343082]
大規模言語モデル(LLM)は、幅広い複雑なタスクを処理できるエージェントシステムの急速な成長をもたらした。
Modularized LLM Agent Search (MoLAS) という新しい研究課題を紹介した。
論文 参考訳(メタデータ) (2024-10-08T15:52:42Z) - LLM-Agent-UMF: LLM-based Agent Unified Modeling Framework for Seamless Integration of Multi Active/Passive Core-Agents [0.0]
LLM-Agent-UMF(LLM-Agent-UMF)に基づく新しいエージェント統一モデリングフレームワークを提案する。
我々のフレームワークはLLMエージェントの異なるコンポーネントを区別し、LLMとツールを新しい要素であるコアエージェントから分離する。
我々は,13の最先端エージェントに適用し,それらの機能との整合性を実証することによって,我々の枠組みを評価する。
論文 参考訳(メタデータ) (2024-09-17T17:54:17Z) - EvoAgent: Towards Automatic Multi-Agent Generation via Evolutionary Algorithms [55.77492625524141]
EvoAgentは進化的アルゴリズムによって専門家エージェントをマルチエージェントシステムに自動的に拡張する汎用的な手法である。
EvoAgentは複数の専門家エージェントを自動生成し,LLMエージェントのタスク解決能力を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-06-20T11:49:23Z) - Agent-Pro: Learning to Evolve via Policy-Level Reflection and Optimization [53.510942601223626]
大規模言語モデル(LLM)は多様なタスクに対して堅牢な問題解決能力を示す。
これらのタスクソルバは、タスクルールを通知し、行動を調整するために手作業によるプロンプトを必要とする。
本稿では,ポリシーレベルのリフレクションと最適化を備えた LLM ベースのエージェントである Agent-Pro を提案する。
論文 参考訳(メタデータ) (2024-02-27T15:09:20Z) - AgentTuning: Enabling Generalized Agent Abilities for LLMs [35.74502545364593]
本稿では,オープンな大規模言語モデルのエージェント能力を高めるための,シンプルで汎用的なAgentTuningを提案する。
我々は、AgentInstructと一般的なドメインからのオープンソース命令を組み合わせることで、ハイブリッドなインストラクションチューニング戦略を採用する。
評価の結果,AgentTuning は汎用能力を損なうことなく LLM のエージェント機能を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-10-19T15:19:53Z) - Formally Specifying the High-Level Behavior of LLM-Based Agents [24.645319505305316]
LLMはタスク固有の微調整モデルを必要とせずに、課題を解決するための有望なツールとして登場した。
現在、このようなエージェントの設計と実装はアドホックであり、LLMベースのエージェントが自然に適用できる様々なタスクは、エージェント設計に一律に適合するアプローチが存在しないことを意味する。
エージェント構築のプロセスを簡単にする最小主義的生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-12T17:24:15Z) - Dynamic LLM-Agent Network: An LLM-agent Collaboration Framework with
Agent Team Optimization [59.39113350538332]
大規模言語モデル(LLM)エージェントは幅広いタスクで有効であることが示されており、複数のLLMエージェントを組み込むことで、その性能をさらに向上することができる。
既存のアプローチでは、固定されたエージェントセットを使用して静的アーキテクチャで相互に相互作用する。
我々は、推論やコード生成といった複雑なタスクにおいて、LLM-agentコラボレーションのためにDynamic LLM-Agent Network(textbfDyLAN$)というフレームワークを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:05:48Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - AgentBench: Evaluating LLMs as Agents [88.45506148281379]
大規模言語モデル(LLM)は、従来のNLPタスクを超えた現実的な実用的ミッションをターゲットとして、ますます賢く自律的になってきています。
我々は,現在8つの異なる環境からなるベンチマークであるAgentBenchを紹介し,LLM-as-Agentの推論と意思決定能力を評価する。
論文 参考訳(メタデータ) (2023-08-07T16:08:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。