論文の概要: Learning to Use Tools via Cooperative and Interactive Agents
- arxiv url: http://arxiv.org/abs/2403.03031v1
- Date: Tue, 5 Mar 2024 15:08:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 14:18:02.030048
- Title: Learning to Use Tools via Cooperative and Interactive Agents
- Title(参考訳): 協調型対話型エージェントによるツール活用の学習
- Authors: Zhengliang Shi, Shen Gao, Xiuyi Chen, Lingyong Yan, Haibo Shi, Dawei
Yin, Zhumin Chen, Pengjie Ren, Suzan Verberne, Zhaochun Ren
- Abstract要約: ツール学習は、大きな言語モデル(LLM)をエージェントとして、その能力を拡張するために外部ツールを使用する権限を与える。
既存の手法では、1つのLCMベースのエージェントを使用してツールを反復的に選択し実行し、その結果を次のアクション予測に組み込む。
本研究では,協調型対話型エージェントフレームワークであるConAgentsを提案し,ツール学習のワークフローをグラウンディング,実行,監視エージェントにモジュール化する。
- 参考スコア(独自算出の注目度): 61.662788490607475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tool learning empowers large language models (LLMs) as agents to use external
tools to extend their capability. Existing methods employ one single LLM-based
agent to iteratively select and execute tools, thereafter incorporating the
result into the next action prediction. However, they still suffer from
potential performance degradation when addressing complex tasks due to: (1) the
limitation of the inherent capability of a single LLM to perform diverse
actions, and (2) the struggle to adaptively correct mistakes when the task
fails. To mitigate these problems, we propose the ConAgents, a Cooperative and
interactive Agents framework, which modularizes the workflow of tool learning
into Grounding, Execution, and Observing agents. We also introduce an iterative
calibration (IterCali) method, enabling the agents to adapt themselves based on
the feedback from the tool environment. Experiments conducted on three datasets
demonstrate the superiority of our ConAgents (e.g., 6 point improvement over
the SOTA baseline). We further provide fine-granularity analysis for the
efficiency and consistency of our framework.
- Abstract(参考訳): ツール学習は、大きな言語モデル(LLM)をエージェントとして、外部ツールを使用して能力を拡張する。
既存の方法は単一のllmベースのエージェントを使用して反復的にツールを選択し実行し、その結果を次のアクション予測に組み込む。
しかし,(1)多様な動作を行うための単一のllmの固有能力の制限,(2)タスクが失敗した場合の誤りを適応的に修正する努力,などにより,複雑なタスクに対処する際の潜在的な性能低下に苦しむ。
これらの問題を緩和するために,ツール学習のワークフローをグラウンディング,実行,監視エージェントにモジュール化した協調対話型エージェントフレームワークであるConAgentsを提案する。
また,反復キャリブレーション(itercali)手法を導入し,ツール環境からのフィードバックに基づいてエージェントが適応できるようにする。
3つのデータセットで実施された実験は、ConAgentsの優位性を示す(例:SOTAベースラインよりも6点改善)。
さらに,フレームワークの効率性と一貫性について,粒度解析を行う。
関連論文リスト
- Trial and Error: Exploration-Based Trajectory Optimization for LLM
Agents [52.82856458995437]
本稿では,ETOと呼ばれる探索に基づく軌道最適化手法を提案する。
この学習方法はオープンLLMエージェントの性能を向上させるために設計されている。
3つの複雑なタスクに関する実験は、ETOがベースライン性能をはるかに上回っていることを示す。
論文 参考訳(メタデータ) (2024-03-04T21:50:29Z) - From Summary to Action: Enhancing Large Language Models for Complex
Tasks with Open World APIs [62.496139001509114]
大規模な現実世界のAPIを制御するために設計された新しいツール呼び出しパイプラインを導入します。
このパイプラインは人間のタスク解決プロセスを反映し、複雑な実際のユーザクエリに対処する。
ToolBenchベンチマークにおけるSum2Actパイプラインの実証的な評価は、大幅なパフォーマンス向上を示している。
論文 参考訳(メタデータ) (2024-02-28T08:42:23Z) - Training Language Model Agents without Modifying Language Models [41.88553844239783]
LLM重みを変更することなくLLM(Large Language Models)エージェントを訓練する新しいパラダイムを提案する。
LLMを利用してエージェントの機能を更新し、ロールバックとアーリーストップという2つの戦略でエージェントトレーニングアルゴリズムを考案するエージェントを開発する。
広範囲な実験により、エージェント訓練パラダイムが代表的LLMエージェントの性能を大幅に改善できることが示される。
論文 参考訳(メタデータ) (2024-02-17T18:31:21Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Dynamic LLM-Agent Network: An LLM-agent Collaboration Framework with
Agent Team Optimization [59.39113350538332]
大規模言語モデル(LLM)エージェントは幅広いタスクで有効であることが示されており、複数のLLMエージェントを組み込むことで、その性能をさらに向上することができる。
既存のアプローチでは、固定されたエージェントセットを使用して静的アーキテクチャで相互に相互作用する。
我々は、推論やコード生成といった複雑なタスクにおいて、LLM-agentコラボレーションのためにDynamic LLM-Agent Network(textbfDyLAN$)というフレームワークを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:05:48Z) - TPTU: Large Language Model-based AI Agents for Task Planning and Tool
Usage [28.554981886052953]
大規模言語モデル(LLM)は、様々な現実世界のアプリケーションのための強力なツールとして登場した。
LLMの本質的な生成能力は、その長所にもかかわらず、複雑なタスクを扱うには不十分である。
本稿では,LLMベースのAIエージェントに適した構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-07T09:22:03Z) - Large Language Models as Tool Makers [85.00361145117293]
我々はLLM A s Tool Makers (LATM) と呼ばれるクローズドループフレームワークを導入する。
ツール作成: 1 つのツール作成: LLM がタスクセットのためのツールを作成するツールメーカとして機能する 2 つのツール使用: 別の LLM がツールユーザとして機能し、ツールメーカが問題解決のために構築したツールを適用する。
論文 参考訳(メタデータ) (2023-05-26T17:50:11Z) - Task-Agnostic Continual Reinforcement Learning: Gaining Insights and
Overcoming Challenges [27.474011433615317]
連続学習(CL)は、一連のタスクから学習するモデルやエージェントの開発を可能にする。
タスクに依存しないCLとマルチタスク(MTL)エージェントのパフォーマンス差に寄与する要因について検討する。
論文 参考訳(メタデータ) (2022-05-28T17:59:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。