論文の概要: ToolBridge: An Open-Source Dataset to Equip LLMs with External Tool Capabilities
- arxiv url: http://arxiv.org/abs/2410.10872v1
- Date: Tue, 08 Oct 2024 20:54:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-20 09:11:06.090757
- Title: ToolBridge: An Open-Source Dataset to Equip LLMs with External Tool Capabilities
- Title(参考訳): ToolBridge: 外部ツール機能を備えたLLMを実現するオープンソースデータセット
- Authors: Zhenchao Jin, Mengchen Liu, Dongdong Chen, Lingting Zhu, Yunsheng Li, Lequan Yu,
- Abstract要約: 本稿では、言語モデルに外部ツールの活用方法を学ぶためのデータセット構築に関する詳細なプロセスを明らかにすることを目的とする。
ToolBridgeは、一般的なオープンアクセスデータセットの集合を生データセットプールとして使用することを提案している。
これらのキュレートされたデータエントリの微調整を監督することにより、LLMは予測精度を高めるために、適切なコンテキストで外部ツールを呼び出すことができる。
- 参考スコア(独自算出の注目度): 43.232034005763005
- License:
- Abstract: Through the integration of external tools, large language models (LLMs) such as GPT-4o and Llama 3.1 significantly expand their functional capabilities, evolving from elementary conversational agents to general-purpose assistants. We argue that the primary drivers of these advancements are the quality and diversity of the training data. However, the existing LLMs with external tool integration provide only limited transparency regarding their datasets and data collection methods, which has led to the initiation of this research. Specifically, in this paper, our objective is to elucidate the detailed process involved in constructing datasets that empower LLMs to effectively learn how to utilize external tools and make this information available to the public through the introduction of ToolBridge. ToolBridge proposes to employ a collection of general open-access datasets as its raw dataset pool and applies a series of strategies to identify appropriate data entries from the pool for external tool API insertions. By supervised fine-tuning on these curated data entries, LLMs can invoke external tools in appropriate contexts to boost their predictive accuracy, particularly for basic functions including data processing, numerical computation, and factual retrieval. Our experiments rigorously isolates model architectures and training configurations, focusing exclusively on the role of data. The experimental results indicate that LLMs trained on ToolBridge demonstrate consistent performance improvements on both standard benchmarks and custom evaluation datasets. All the associated code and data will be open-source at https://github.com/CharlesPikachu/ToolBridge, promoting transparency and facilitating the broader community to explore approaches for equipping LLMs with external tools capabilities.
- Abstract(参考訳): 外部ツールの統合により、GPT-4oやLlama 3.1のような大きな言語モデル(LLM)は機能を大幅に拡張し、基本的な会話エージェントから汎用アシスタントへと進化した。
これらの進歩の主な要因は、トレーニングデータの質と多様性である、と我々は主張する。
しかし、既存のLCMと外部ツールの統合は、データセットやデータ収集方法に関して限られた透明性しか提供していないため、この研究の開始につながっている。
具体的には,PLMが外部ツールの活用方法を効果的に学習し,ToolBridgeの導入によってその情報を一般公開することを可能にするためのデータセット構築に必要な詳細なプロセスを解明することを目的とする。
ToolBridgeは、一般的なオープンアクセスデータセットの集合を生のデータセットプールとして使用し、外部ツールAPI挿入のためにプールから適切なデータエントリを特定するための一連の戦略を適用することを提案している。
これらのキュレートされたデータエントリの微調整を監督することにより、LLMは、特にデータ処理、数値計算、事実検索などの基本的な機能において、予測精度を高めるために、適切なコンテキストで外部ツールを起動することができる。
実験では、モデルアーキテクチャとトレーニング構成を厳格に分離し、データの役割に重点を置いています。
実験結果から、ToolBridgeでトレーニングされたLLMは、標準ベンチマークとカスタム評価データセットの両方で一貫したパフォーマンス改善を示していることが示唆された。
すべての関連コードとデータはhttps://github.com/CharlesPikachu/ToolBridgeでオープンソースとして公開され、透明性の促進と、外部ツール機能を備えたLLMを装備するためのアプローチの探求を促進する。
関連論文リスト
- From Exploration to Mastery: Enabling LLMs to Master Tools via Self-Driven Interactions [60.733557487886635]
本稿では,大規模言語モデルと外部ツールとの包括的ギャップを埋めることに焦点を当てる。
ツール文書の動的精錬を目的とした新しいフレームワーク DRAFT を提案する。
複数のデータセットに対する大規模な実験は、DRAFTの反復的なフィードバックベースの改善がドキュメントの品質を大幅に改善することを示している。
論文 参考訳(メタデータ) (2024-10-10T17:58:44Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - Chain of Tools: Large Language Model is an Automatic Multi-tool Learner [54.992464510992605]
Automatic Tool Chain(ATC)は、大規模言語モデル(LLM)がマルチツールユーザとして機能することを可能にするフレームワークである。
次に,ツールの範囲を拡大するために,ブラックボックス探索法を提案する。
包括的な評価のために、ToolFlowという挑戦的なベンチマークを構築しました。
論文 参考訳(メタデータ) (2024-05-26T11:40:58Z) - Towards Completeness-Oriented Tool Retrieval for Large Language Models [60.733557487886635]
現実世界のシステムは多種多様なツールを組み込んでおり、全てのツールを大規模言語モデルに入力することは不可能である。
既存のツール検索手法は主にユーザクエリとツール記述間のセマンティックマッチングに焦点を当てている。
我々は,ユーザクエリとツール記述のセマンティックな類似性だけでなく,ツールの協調的情報も考慮した,新しいモデル診断型協調学習型ツール検索手法であるCOLTを提案する。
論文 参考訳(メタデータ) (2024-05-25T06:41:23Z) - LLMs in the Imaginarium: Tool Learning through Simulated Trial and Error [54.954211216847135]
既存の大規模言語モデル(LLM)は30%から60%の範囲でしか正当性に至らない。
試行錯誤(STE)を模擬したツール拡張LDMの生物学的なインスピレーション法を提案する。
STEは、試行錯誤、想像力、記憶という、生物学的システムにおけるツール使用行動の成功のための3つの重要なメカニズムを編成する。
論文 参考訳(メタデータ) (2024-03-07T18:50:51Z) - Look Before You Leap: Towards Decision-Aware and Generalizable Tool-Usage for Large Language Models [26.28459880766842]
意思決定・汎用ツール・ユース・フレームワーク(DEER)を提案する。
具体的には、まず、自動生成パイプラインを介して、複数の決定ブランチを持つツール使用サンプルを構築します。
提案するDEERは, 各種データセットのベースラインよりも効果的で, 著しく優れる。
論文 参考訳(メタデータ) (2024-02-26T16:11:03Z) - ToolQA: A Dataset for LLM Question Answering with External Tools [14.408707186450899]
大規模言語モデル (LLM) は様々なNLPタスクにおいて顕著な性能を示した。
彼らはまだ幻覚や弱い数値推論のような困難に悩まされている。
これらの課題を克服するために、LLMの質問応答能力を高めるために外部ツールを使用することができる。
論文 参考訳(メタデータ) (2023-06-23T05:43:28Z) - On the Tool Manipulation Capability of Open-source Large Language Models [19.6917640220883]
オープンソース LLM を強化して,ツール操作においてクローズド LLM API をリードする上での競争力を示すことができることを示す。
当社の技術は,オープンソースLLMを最大90%の成功率で向上させ,8つのツールベンチタスクのうち4つでOpenAI GPT-4と競合する能力を示す。
論文 参考訳(メタデータ) (2023-05-25T22:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。