論文の概要: Enhancing Tool Retrieval with Iterative Feedback from Large Language Models
- arxiv url: http://arxiv.org/abs/2406.17465v2
- Date: Sun, 29 Sep 2024 15:26:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:01:35.392714
- Title: Enhancing Tool Retrieval with Iterative Feedback from Large Language Models
- Title(参考訳): 大規模言語モデルからの反復的フィードバックによるツール検索の強化
- Authors: Qiancheng Xu, Yongqi Li, Heming Xia, Wenjie Li,
- Abstract要約: 大規模言語モデル(LLM)は、コンテキスト内学習や微調整を通じて、ある程度のツールを効果的に扱うことができる。
現実のシナリオでは、ツールの数は一般的に広範囲で不規則に更新され、専用のツール検索コンポーネントの必要性を強調している。
本稿では,大規模言語モデルからの反復的なフィードバックでツール検索を強化することを提案する。
- 参考スコア(独自算出の注目度): 9.588592185027455
- License:
- Abstract: Tool learning aims to enhance and expand large language models' (LLMs) capabilities with external tools, which has gained significant attention recently. Current methods have shown that LLMs can effectively handle a certain amount of tools through in-context learning or fine-tuning. However, in real-world scenarios, the number of tools is typically extensive and irregularly updated, emphasizing the necessity for a dedicated tool retrieval component. Tool retrieval is nontrivial due to the following challenges: 1) complex user instructions and tool descriptions; 2) misalignment between tool retrieval and tool usage models. To address the above issues, we propose to enhance tool retrieval with iterative feedback from the large language model. Specifically, we prompt the tool usage model, i.e., the LLM, to provide feedback for the tool retriever model in multi-round, which could progressively improve the tool retriever's understanding of instructions and tools and reduce the gap between the two standalone components. We build a unified and comprehensive benchmark to evaluate tool retrieval models. The extensive experiments indicate that our proposed approach achieves advanced performance in both in-domain evaluation and out-of-domain evaluation.
- Abstract(参考訳): ツール学習は、大規模な言語モデル(LLM)機能を外部ツールで拡張し、拡張することを目的としている。
現在の手法では、LLMはコンテキスト内学習や微調整によって、ある程度のツールを効果的に扱えることが示されている。
しかし、現実のシナリオでは、ツールの数は広く不規則に更新され、専用のツール検索コンポーネントの必要性を強調している。
ツール検索は、以下の課題のために簡単ではない。
1) 複雑なユーザ指示及びツール記述
2)ツール検索とツール利用モデルとの相違。
上記の課題に対処するため,大規模言語モデルからの反復的なフィードバックでツール検索を強化することを提案する。
具体的には,ツールレトリバーモデルに対するフィードバックを複数ラウンドで提供し,ツールレトリバーの指示やツールに対する理解を段階的に改善し,2つのスタンドアロンコンポーネント間のギャップを減らし,ツール利用モデル,すなわちLDMに促す。
ツール検索モデルを評価するために,統一的で包括的なベンチマークを構築した。
提案手法は,ドメイン内評価とドメイン外評価の両方において,高度な性能を実現することを示す。
関連論文リスト
- MetaTool: Facilitating Large Language Models to Master Tools with Meta-task Augmentation [25.360660222418183]
我々は、再利用可能なツールセットをマスターするために一般化可能な新しいツール学習手法(MetaTool)を導入する。
我々は,ツール実行のマスキング要因を予測するメタタスクを開発した。
メタタスクデータを命令チューニングプロセスに組み込むことで,提案したMetaToolモデルは,オープンソースモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2024-07-15T10:15:41Z) - Chain of Tools: Large Language Model is an Automatic Multi-tool Learner [54.992464510992605]
Automatic Tool Chain(ATC)は、大規模言語モデル(LLM)がマルチツールユーザとして機能することを可能にするフレームワークである。
次に,ツールの範囲を拡大するために,ブラックボックス探索法を提案する。
包括的な評価のために、ToolFlowという挑戦的なベンチマークを構築しました。
論文 参考訳(メタデータ) (2024-05-26T11:40:58Z) - COLT: Towards Completeness-Oriented Tool Retrieval for Large Language Models [60.733557487886635]
そこで我々は,Collaborative Learning-based Tool Retrieval approach, COLTを提案する。
COLTはユーザクエリとツール記述のセマンティックな類似性をキャプチャする。
また、ツールの協調的な情報も考慮に入れている。
論文 参考訳(メタデータ) (2024-05-25T06:41:23Z) - What Are Tools Anyway? A Survey from the Language Model Perspective [67.18843218893416]
言語モデル(LM)は強力だが、主にテキスト生成タスクに向いている。
LMが使用する外部プログラムとしてツールを統一的に定義する。
各種ツールの効率を実証的に検討した。
論文 参考訳(メタデータ) (2024-03-18T17:20:07Z) - EASYTOOL: Enhancing LLM-based Agents with Concise Tool Instruction [56.02100384015907]
EasyToolは、多種多様で長いツールドキュメントを統一的で簡潔なツール命令に変換するフレームワークである。
トークン使用量を大幅に削減し、現実のシナリオにおけるツール利用のパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2024-01-11T15:45:11Z) - MetaTool Benchmark for Large Language Models: Deciding Whether to Use
Tools and Which to Use [82.24774504584066]
大規模言語モデル(LLM)は、その印象的な自然言語処理(NLP)能力のために大きな注目を集めている。
このベンチマークは、LLMがツールの使用意識を持ち、ツールを正しく選択できるかどうかを評価するためのものだ。
8つの人気のあるLCMを巻き込んだ実験を行い、その大半は依然として効果的にツールを選択するのに苦労していることがわかった。
論文 参考訳(メタデータ) (2023-10-04T19:39:26Z) - Large Language Models as Tool Makers [85.00361145117293]
我々はLLM A s Tool Makers (LATM) と呼ばれるクローズドループフレームワークを導入する。
ツール作成: 1 つのツール作成: LLM がタスクセットのためのツールを作成するツールメーカとして機能する 2 つのツール使用: 別の LLM がツールユーザとして機能し、ツールメーカが問題解決のために構築したツールを適用する。
論文 参考訳(メタデータ) (2023-05-26T17:50:11Z) - Making Language Models Better Tool Learners with Execution Feedback [36.30542737293863]
ツールは、人間が環境を理解し、形を変えることができる重要なインターフェースとして機能する。
既存のツール学習手法は、ツールを無差別に活用するために大きな言語モデルを誘導する。
ツール実行からのフィードバックを通じてモデルを継続的に学習することを可能にする2段階のエンドツーエンドフレームワークであるTool leaRning wIth exeCution fEedback (TRICE)を提案する。
論文 参考訳(メタデータ) (2023-05-22T14:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。