論文の概要: Enhancing LLM Tool Use with High-quality Instruction Data from Knowledge Graph
- arxiv url: http://arxiv.org/abs/2506.21071v1
- Date: Thu, 26 Jun 2025 07:45:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.016878
- Title: Enhancing LLM Tool Use with High-quality Instruction Data from Knowledge Graph
- Title(参考訳): 知識グラフによる高品質インストラクションデータを用いたLLMツールの活用
- Authors: Jingwei Wang, Zai Zhang, Hao Qian, Chunjing Gan, Binbin Hu, Ziqi Liu, Zhiqiang Zhang, Jun Zhou, Bin Shi, Bo Dong,
- Abstract要約: 本稿では,知識グラフを用いて,大規模言語モデルのための高品質な命令データを生成する手法を提案する。
エンティティ間の関係を実行可能なツールに変換し、各クエリの経路を詳細なソリューションステップに解析します。
実験の結果,この合成データの小さなサンプルを微調整することで,LLMのツール利用率や全体的な能力を大幅に向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 28.06981935713016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Teaching large language models (LLMs) to use tools is crucial for improving their problem-solving abilities and expanding their applications. However, effectively using tools is challenging because it requires a deep understanding of tool functionalities and user intentions. Previous methods relied mainly on LLMs to generate instruction data, but the quality of these data was often insufficient. In this paper, we propose a new method that uses knowledge graphs to generate high-quality instruction data for LLMs. Knowledge graphs are manually curated datasets rich in semantic information. We begin by extracting various query pathways from a given knowledge graph, which are transformed into a broad spectrum of user queries. We then translate the relationships between entities into actionable tools and parse the pathways of each query into detailed solution steps, thereby creating high-quality instruction data. Our experiments show that fine-tuning on just a small sample of this synthetic data can significantly improve the tool utilization and overall capabilities of LLMs.
- Abstract(参考訳): ツールを使用するために大きな言語モデル(LLM)を教えることは、問題解決能力を改善し、アプリケーションを拡張するために不可欠である。
しかし、ツールの有効利用は、ツールの機能とユーザの意図を深く理解する必要があるため、難しい。
従来の手法は主に命令データを生成するためにLSMに頼っていたが、これらのデータの品質は不十分であった。
本稿では,LLMのための高品質な命令データを生成するために知識グラフを用いた新しい手法を提案する。
知識グラフは、セマンティック情報に富んだ手動でキュレートされたデータセットである。
まず、与えられた知識グラフから様々なクエリ経路を抽出し、それを広い範囲のユーザクエリに変換する。
次に、エンティティ間の関係を実行可能なツールに変換し、各クエリの経路を詳細なソリューションステップに解析し、高品質な命令データを生成する。
実験の結果,この合成データの小さなサンプルを微調整することで,LLMのツール利用率や全体的な能力を大幅に向上させることができることがわかった。
関連論文リスト
- Tool Unlearning for Tool-Augmented LLMs [14.755831733659699]
ツール強化された大規模言語モデル(LLM)は、クエリとレスポンスのペアのデータセットに基づいてトレーニングされることが多い。
ToolDeleteは、ツール拡張LDMからの未学習ツールの最初のアプローチである。
論文 参考訳(メタデータ) (2025-02-03T05:50:55Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - Tool Learning in the Wild: Empowering Language Models as Automatic Tool Agents [56.822238860147024]
大規模な言語モデルを外部ツールで拡張することは、彼らのユーティリティを拡張するための有望なアプローチとして現れました。
以前のメソッドは、ツールドキュメントを手動で解析し、コンテキスト内デモを作成し、ツールをLLMがステップバイステップの推論で使用する構造化フォーマットに変換する。
LLMがツール使用ワークフローを自動化できるフレームワークであるAutoToolsを提案する。
論文 参考訳(メタデータ) (2024-05-26T11:40:58Z) - Look Before You Leap: Towards Decision-Aware and Generalizable Tool-Usage for Large Language Models [26.28459880766842]
意思決定・汎用ツール・ユース・フレームワーク(DEER)を提案する。
具体的には、まず、自動生成パイプラインを介して、複数の決定ブランチを持つツール使用サンプルを構築します。
提案するDEERは, 各種データセットのベースラインよりも効果的で, 著しく優れる。
論文 参考訳(メタデータ) (2024-02-26T16:11:03Z) - EASYTOOL: Enhancing LLM-based Agents with Concise Tool Instruction [56.02100384015907]
EasyToolは、多種多様で長いツールドキュメントを統一的で簡潔なツール命令に変換するフレームワークである。
トークン使用量を大幅に削減し、現実のシナリオにおけるツール利用のパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2024-01-11T15:45:11Z) - ToolQA: A Dataset for LLM Question Answering with External Tools [14.408707186450899]
大規模言語モデル (LLM) は様々なNLPタスクにおいて顕著な性能を示した。
彼らはまだ幻覚や弱い数値推論のような困難に悩まされている。
これらの課題を克服するために、LLMの質問応答能力を高めるために外部ツールを使用することができる。
論文 参考訳(メタデータ) (2023-06-23T05:43:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。