論文の概要: TUMS: Enhancing Tool-use Abilities of LLMs with Multi-structure Handlers
- arxiv url: http://arxiv.org/abs/2505.08402v1
- Date: Tue, 13 May 2025 09:57:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.513355
- Title: TUMS: Enhancing Tool-use Abilities of LLMs with Multi-structure Handlers
- Title(参考訳): TUMS:多構造ハンドラを用いたLLMのツール利用能力向上
- Authors: Aiyao He, Sijia Cui, Shuai Xu, Yanna Wang, Bo Xu,
- Abstract要約: 本稿では,大規模言語モデルのツール利用能力を高めるための新しいフレームワークであるTUMSを提案する。
本フレームワークは,(1)LLMがタスクをよりよく理解するためのユーザ意図を識別するインテント認識器,(2)複雑なタスクを単純なサブタスクに分解するタスク分解器,(3)高精度なパラメータを生成するマルチ構造ハンドラを備えたサブタスクプロセッサの4つで構成されている。
我々の実証研究は、TUMSフレームワークの有効性と効率を、平均19.6%と50.6%で証明した。
- 参考スコア(独自算出の注目度): 8.34574238496256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, large language models(LLMs) have played an increasingly important role in solving a wide range of NLP tasks, leveraging their capabilities of natural language understanding and generating. Integration with external tools further enhances LLMs' effectiveness, providing more precise, timely, and specialized responses. However, LLMs still encounter difficulties with non-executable actions and improper actions, which are primarily attributed to incorrect parameters. The process of generating parameters by LLMs is confined to the tool level, employing the coarse-grained strategy without considering the different difficulties of various tools. To address this issue, we propose TUMS, a novel framework designed to enhance the tool-use capabilities of LLMs by transforming tool-level processing into parameter-level processing. Specifically, our framework consists of four key components: (1) an intent recognizer that identifies the user's intent to help LLMs better understand the task; (2) a task decomposer that breaks down complex tasks into simpler subtasks, each involving a tool call; (3) a subtask processor equipped with multi-structure handlers to generate accurate parameters; and (4) an executor. Our empirical studies have evidenced the effectiveness and efficiency of the TUMS framework with an average of 19.6\% and 50.6\% improvement separately on easy and hard benchmarks of ToolQA, meanwhile, we demonstrated the key contribution of each part with ablation experiments, offering more insights and stimulating future research on Tool-augmented LLMs.
- Abstract(参考訳): 近年,大規模言語モデル(LLM)は,自然言語理解と生成の能力を活用して,幅広いNLPタスクを解く上で,ますます重要な役割を担っている。
外部ツールとの統合により、LCMの有効性がさらに向上し、より正確で、タイムリーで、専門的な応答を提供する。
しかし、LSMは実行不可能なアクションや不適切なアクションで依然として困難に直面しており、これは主に誤ったパラメータに起因する。
LLMによってパラメータを生成するプロセスはツールレベルに限定され、様々なツールの難易度を考慮せずに、粗い粒度の戦略を採用する。
ツールレベルの処理をパラメータレベルの処理に変換することで,LLMのツール使用能力を高めるための新しいフレームワークであるTUMSを提案する。
具体的には、(1)LLMのタスクをよりよく理解するためのユーザの意図を特定するインテント認識器、(2)複雑なタスクをより単純なサブタスクに分解するタスク分解器、(3)正確なパラメータを生成するためのマルチ構造ハンドラを備えたサブタスクプロセッサ、(4)エグゼキュータの4つの主要なコンポーネントから構成される。
ツールQAの容易かつ硬いベンチマークでは,平均19.6\%と50.6\%の改善率でTUMSフレームワークの有効性と効率が実証された。
関連論文リスト
- Tool Learning in the Wild: Empowering Language Models as Automatic Tool Agents [56.822238860147024]
大規模な言語モデルを外部ツールで拡張することは、彼らのユーティリティを拡張するための有望なアプローチとして現れました。
以前のメソッドは、ツールドキュメントを手動で解析し、コンテキスト内デモを作成し、ツールをLLMがステップバイステップの推論で使用する構造化フォーマットに変換する。
LLMがツール使用ワークフローを自動化できるフレームワークであるAutoToolsを提案する。
論文 参考訳(メタデータ) (2024-05-26T11:40:58Z) - Enhancing the General Agent Capabilities of Low-Parameter LLMs through Tuning and Multi-Branch Reasoning [56.82041895921434]
オープンソースの事前訓練された大規模言語モデル(LLM)は、強力な言語理解と生成能力を示す。
現実世界の複雑な問題に対処するエージェントとして使用される場合、ChatGPTやGPT-4のような大型の商用モデルに比べてパフォーマンスははるかに劣る。
論文 参考訳(メタデータ) (2024-03-29T03:48:12Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - CREATOR: Tool Creation for Disentangling Abstract and Concrete Reasoning of Large Language Models [74.22729793816451]
大規模言語モデル(LLM)はツールの利用において大きな進歩を遂げているが、その能力はAPIの可用性によって制限されている。
我々は、LCMがドキュメンテーションとコード実現を使って独自のツールを作成できる新しいフレームワークCREATORを提案する。
我々は,MATH と TabMWP のベンチマークで CREATOR を評価する。
論文 参考訳(メタデータ) (2023-05-23T17:51:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。