論文の概要: ToolDreamer: Instilling LLM Reasoning Into Tool Retrievers
- arxiv url: http://arxiv.org/abs/2510.19791v1
- Date: Wed, 22 Oct 2025 17:26:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.229413
- Title: ToolDreamer: Instilling LLM Reasoning Into Tool Retrievers
- Title(参考訳): ToolDreamer: LLM推論をツールレトリバーに組み込む
- Authors: Saptarshi Sengupta, Zhengyu Zhou, Jun Araki, Xingbo Wang, Bingqing Wang, Suhang Wang, Zhe Feng,
- Abstract要約: 既存の検索モデルでは、ユーザクエリとツール記述(TD)の類似性に基づいてツールをランク付けする。
ユーザ要求がTDの言語に不整合している場合が多いため、このことがサブ最適検索に繋がる。
仮説的(合成的)なTDに基づいてツールをフェッチするための,検索モデルの条件付けを行うフレームワークであるToolDreamerを提案する。
- 参考スコア(独自算出の注目度): 33.08308979741825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tool calling has become increasingly popular for Large Language Models (LLMs). However, for large tool sets, the resulting tokens would exceed the LLM's context window limit, making it impossible to include every tool. Hence, an external retriever is used to provide LLMs with the most relevant tools for a query. Existing retrieval models rank tools based on the similarity between a user query and a tool description (TD). This leads to suboptimal retrieval as user requests are often poorly aligned with the language of TD. To remedy the issue, we propose ToolDreamer, a framework to condition retriever models to fetch tools based on hypothetical (synthetic) TD generated using an LLM, i.e., description of tools that the LLM feels will be potentially useful for the query. The framework enables a more natural alignment between queries and tools within the language space of TD's. We apply ToolDreamer on the ToolRet dataset and show that our method improves the performance of sparse and dense retrievers with and without training, thus showcasing its flexibility. Through our proposed framework, our aim is to offload a portion of the reasoning burden to the retriever so that the LLM may effectively handle a large collection of tools without inundating its context window.
- Abstract(参考訳): ツールコールは、Large Language Models (LLMs) でますます人気が高まっている。
しかし、大きなツールセットの場合、結果として生じるトークンはLLMのコンテキストウィンドウ制限を超えるため、すべてのツールを含めることは不可能である。
したがって、外部レトリバーは、クエリーに最も関連性の高いツールをLLMに提供するために使用される。
既存の検索モデルは、ユーザクエリとツール記述(TD)の類似性に基づいてツールをランク付けする。
ユーザ要求がTDの言語に不整合している場合が多いため、このことがサブ最適検索に繋がる。
この問題を解決するために,LLMを用いた仮説的(合成的な)TDに基づいてツールをフェッチするための条件付き検索モデルであるToolDreamerを提案する。
このフレームワークは、TD言語空間内のクエリとツール間のより自然なアライメントを可能にする。
ToolRetデータセットにToolDreamerを適用し、トレーニングなしでスパースとディープレトリバーの性能を改善し、柔軟性を示すことを示す。
提案するフレームワークを通じて,LLMがコンテキストウィンドウを浸すことなく,大量のツールを効果的に扱えるように,推論負荷の一部をレトリバーにオフロードすることを目的としている。
関連論文リスト
- Improving Tool Retrieval by Leveraging Large Language Models for Query Generation [16.7926347207647]
コンテキスト内学習は、プロンプトで関連するツールの短いリストを提供することができる。
本稿では,Large Language Models (LLM) を用いて検索クエリを生成することを提案する。
生成されたクエリは埋め込みされ、最も近い隣の検索を通じて最も関連性の高いツールを見つけるために使用される。
論文 参考訳(メタデータ) (2024-11-17T03:02:09Z) - MLLM-Tool: A Multimodal Large Language Model For Tool Agent Learning [40.32823306537386]
本稿では,オープンソースの大規模言語モデルとマルチモーダルエンコーダを組み合わせたMLLM-Toolを提案する。
データセットにはHuggingFaceからのマルチモーダル入力ツールが特徴です。
実験の結果,MLLM-Toolはマルチモーダル命令に適したツールを推奨できることがわかった。
論文 参考訳(メタデータ) (2024-01-19T14:44:37Z) - MetaTool Benchmark for Large Language Models: Deciding Whether to Use Tools and Which to Use [79.87054552116443]
大規模言語モデル(LLM)は、その印象的な自然言語処理(NLP)能力のために大きな注目を集めている。
このベンチマークは、LLMがツールの使用意識を持ち、ツールを正しく選択できるかどうかを評価するためのものだ。
8つの人気のあるLCMを巻き込んだ実験を行い、その大半は依然として効果的にツールを選択するのに苦労していることがわかった。
論文 参考訳(メタデータ) (2023-10-04T19:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。