論文の概要: Small LLMs Are Weak Tool Learners: A Multi-LLM Agent
- arxiv url: http://arxiv.org/abs/2401.07324v2
- Date: Thu, 1 Feb 2024 04:34:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 18:24:48.005854
- Title: Small LLMs Are Weak Tool Learners: A Multi-LLM Agent
- Title(参考訳): 小さなLLMは弱いツール学習者:マルチLLMエージェント
- Authors: Weizhou Shen, Chenliang Li, Hongzhan Chen, Ming Yan, Xiaojun Quan,
Hehong Chen, Ji Zhang, Fei Huang
- Abstract要約: LLM(Large Language Model)エージェントは、外部ツールとの対話を可能にする。
ツール利用の課題は、LCMがタスク計画、メモリ管理、ツールの実行、結果の要約に優れていることである。
本稿では、上記の機能をプランナー、呼び出し者、要約者に分解する新しい戦略を提案する。
- 参考スコア(独自算出の注目度): 73.54562551341454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Model (LLM) agents significantly extend the capabilities of
standalone LLMs, empowering them to interact with external tools (e.g., APIs,
functions) and complete complex tasks in a self-directed fashion. The challenge
of tool use demands that LLMs not only understand user queries and generate
answers but also excel in task planning, memory management, tool invocation,
and result summarization. While traditional approaches focus on training a
single LLM with all these capabilities, performance limitations become
apparent, particularly with smaller models. Moreover, the entire LLM may
require retraining when tools are updated. To overcome these challenges, we
propose a novel strategy that decomposes the aforementioned capabilities into a
planner, caller, and summarizer. Each component is implemented by a single LLM
that focuses on a specific capability and collaborates with other components to
accomplish the task. This modular framework facilitates individual updates and
the potential use of smaller LLMs for building each capability. To effectively
train this framework, we introduce a two-stage training paradigm. First, we
fine-tune a backbone LLM on the entire dataset without discriminating
sub-tasks, providing the model with a comprehensive understanding of the task.
Second, the fine-tuned LLM is used to instantiate the planner, caller, and
summarizer respectively, which are continually fine-tuned on respective
sub-tasks. Evaluation across various tool-use benchmarks illustrates that our
proposed multi-LLM framework surpasses the traditional single-LLM approach,
highlighting its efficacy and advantages in tool learning.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張し、外部ツール(API、関数など)と対話し、自己指向的な複雑なタスクを完了させる。
ツール利用の課題は、LCMがユーザクエリを理解し、回答を生成するだけでなく、タスク計画、メモリ管理、ツールの実行、結果の要約にも長けていることである。
従来のアプローチでは、これらすべての機能で単一のLLMをトレーニングすることに重点を置いているが、特に小さなモデルでは、パフォーマンス上の制限が明らかになっている。
さらに、LDM全体がツールの更新時に再トレーニングを必要とする場合がある。
これらの課題を克服するため,我々は,上記の機能をプランナー,呼び出し元,要約元に分解する新しい戦略を提案する。
各コンポーネントは、特定の機能に焦点を当てた単一のLCMによって実装され、タスクを達成するために他のコンポーネントと協調する。
このモジュール化フレームワークは、個々の更新と、各機能を構築するためのより小さなllmの使用を促進する。
このフレームワークを効果的にトレーニングするために,2段階のトレーニングパラダイムを導入する。
まず、サブタスクを識別することなく、データセット全体のバックボーンLDMを微調整し、タスクを包括的に理解するモデルを提供する。
次に、微調整LDMを用いて、各サブタスク上で連続的に微調整されるプランナー、呼び出し元、および要約器をインスタンス化する。
ツール使用ベンチマークによる評価は,提案したマルチLLMフレームワークが従来の単一LLMアプローチを超越していることを示し,ツール学習の有効性とメリットを強調している。
関連論文リスト
- UniMEL: A Unified Framework for Multimodal Entity Linking with Large Language Models [0.42832989850721054]
MEL(Multimodal Entities Linking)は、ウィキペディアのようなマルチモーダル知識ベースの参照エンティティに、多モーダルコンテキスト内で曖昧な言及をリンクすることを目的とした重要なタスクである。
既存の方法はMELタスクを過度に複雑にし、視覚的意味情報を見渡す。
大規模言語モデルを用いたマルチモーダル・エンティティ・リンクタスクを処理するための新しいパラダイムを確立する統一フレームワークUniMELを提案する。
論文 参考訳(メタデータ) (2024-07-23T03:58:08Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Chain of Tools: Large Language Model is an Automatic Multi-tool Learner [54.992464510992605]
Automatic Tool Chain(ATC)は、大規模言語モデル(LLM)がマルチツールユーザとして機能することを可能にするフレームワークである。
次に,ツールの範囲を拡大するために,ブラックボックス探索法を提案する。
包括的な評価のために、ToolFlowという挑戦的なベンチマークを構築しました。
論文 参考訳(メタデータ) (2024-05-26T11:40:58Z) - Sub-goal Distillation: A Method to Improve Small Language Agents [21.815417165548187]
大規模言語モデル(LLM)は対話型タスクにおけるエージェントとして大きな可能性を証明している。
数十億のパラメータを持つLLMの性能を、はるかに小さな言語モデルに転送する手法を提案する。
困難かつマルチタスクな対話型テキスト環境であるScienceWorldでは,基本動作のみに基づく標準的な模倣学習を16.7%超えている。
論文 参考訳(メタデータ) (2024-05-04T20:34:06Z) - From Summary to Action: Enhancing Large Language Models for Complex
Tasks with Open World APIs [62.496139001509114]
大規模な現実世界のAPIを制御するために設計された新しいツール呼び出しパイプラインを導入します。
このパイプラインは人間のタスク解決プロセスを反映し、複雑な実際のユーザクエリに対処する。
ToolBenchベンチマークにおけるSum2Actパイプラインの実証的な評価は、大幅なパフォーマンス向上を示している。
論文 参考訳(メタデータ) (2024-02-28T08:42:23Z) - Look Before You Leap: Towards Decision-Aware and Generalizable Tool-Usage for Large Language Models [26.28459880766842]
意思決定・汎用ツール・ユース・フレームワーク(DEER)を提案する。
具体的には、まず、自動生成パイプラインを介して、複数の決定ブランチを持つツール使用サンプルを構築します。
提案するDEERは, 各種データセットのベースラインよりも効果的で, 著しく優れる。
論文 参考訳(メタデータ) (2024-02-26T16:11:03Z) - LLMBind: A Unified Modality-Task Integration Framework [38.95771765322677]
多様なマルチモーダルタスクを統一する新しいフレームワークである textbfLLMBind を導入する。
LLMBindはMixture-of-Experts (MoE) Large Language Model (LLM)を利用してマルチモーダル入力を処理し、タスク固有のトークンを生成する。
論文 参考訳(メタデータ) (2024-02-22T12:36:31Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z) - Generative Multimodal Entity Linking [24.322540112710918]
MEL(Multimodal Entity Linking)は、知識ベースからの参照エンティティへの参照をマルチモーダルコンテキストでマッピングするタスクである。
既存のMEL法は主に複雑なマルチモーダル相互作用機構の設計に重点を置いており、すべてのモデルパラメータを微調整する必要がある。
大規模言語モデル(LLM)に基づくジェネレーティブマルチモーダルエンティティリンクフレームワークであるGEMELを提案する。
当社のフレームワークは市販の言語モデルと互換性があり、効率的で汎用的なソリューションへの道を開いたものです。
論文 参考訳(メタデータ) (2023-06-22T07:57:19Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。