論文の概要: ToolQA: A Dataset for LLM Question Answering with External Tools
- arxiv url: http://arxiv.org/abs/2306.13304v1
- Date: Fri, 23 Jun 2023 05:43:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 13:36:18.450881
- Title: ToolQA: A Dataset for LLM Question Answering with External Tools
- Title(参考訳): ToolQA:外部ツールを用いたLCM質問回答用データセット
- Authors: Yuchen Zhuang, Yue Yu, Kuan Wang, Haotian Sun, Chao Zhang
- Abstract要約: 大規模言語モデル (LLM) は様々なNLPタスクにおいて顕著な性能を示した。
彼らはまだ幻覚や弱い数値推論のような困難に悩まされている。
これらの課題を克服するために、LLMの質問応答能力を高めるために外部ツールを使用することができる。
- 参考スコア(独自算出の注目度): 14.408707186450899
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated impressive performance in
various NLP tasks, but they still suffer from challenges such as hallucination
and weak numerical reasoning. To overcome these challenges, external tools can
be used to enhance LLMs' question-answering abilities. However, current
evaluation methods do not distinguish between questions that can be answered
using LLMs' internal knowledge and those that require external information
through tool use. To address this issue, we introduce a new dataset called
ToolQA, which is designed to faithfully evaluate LLMs' ability to use external
tools for question answering. Our development of ToolQA involved a scalable,
automated process for dataset curation, along with 13 specialized tools
designed for interaction with external knowledge in order to answer questions.
Importantly, we strive to minimize the overlap between our benchmark data and
LLMs' pre-training data, enabling a more precise evaluation of LLMs' tool-use
reasoning abilities. We conducted an in-depth diagnosis of existing tool-use
LLMs to highlight their strengths, weaknesses, and potential improvements. Our
findings set a new benchmark for evaluating LLMs and suggest new directions for
future advancements. Our data and code are freely available to the broader
scientific community on GitHub.
- Abstract(参考訳): 大規模言語モデル(llm)は様々なnlpタスクにおいて印象的なパフォーマンスを示しているが、幻覚や弱い数値推論といった課題に苦しめられている。
これらの課題を克服するために、LLMの質問応答能力を高めるために外部ツールを使用することができる。
しかし、現在の評価方法は、llmsの内部知識を用いて回答できる質問と、ツールの使用を通じて外部情報を必要とする質問とを区別しない。
この問題に対処するため,質問応答に外部ツールを使用するLLMの能力を忠実に評価するToolQAというデータセットを導入した。
ToolQAの開発には、データセットキュレーションのためのスケーラブルで自動化されたプロセスと、質問に答えるために外部知識とのインタラクション用に設計された13の特別なツールが含まれていました。
重要なことは、ベンチマークデータとLLMの事前学習データの重複を最小限に抑え、LLMのツール使用推論能力をより正確に評価できるようにすることである。
既存のツール用LDMの詳細な診断を行い,その強度,弱点,潜在的な改善点を明らかにした。
本研究は,LSMの評価のための新しい評価基準を設定し,今後の進歩に向けた新たな方向性を提案する。
当社のデータとコードはGitHub上の広範な科学コミュニティで自由に利用できます。
関連論文リスト
- Self-Training Large Language Models for Tool-Use Without Demonstrations [15.17750971071501]
大規模言語モデル (LLMs) は、実際の不正確さや計算ミスに悩まされがちである。
最近の研究は、これらの欠点を緩和するツールを備えたLCMを強化しているが、しばしば金の工具使用デモを必要とする。
本稿では,LLMが実演なしでツールの活用を学べるかどうかを検討する。
論文 参考訳(メタデータ) (2025-02-09T12:06:10Z) - Tool Unlearning for Tool-Augmented LLMs [14.755831733659699]
ツール強化された大規模言語モデル(LLM)は、クエリとレスポンスのペアのデータセットに基づいてトレーニングされることが多い。
ToolDeleteは、ツール拡張LDMからの未学習ツールの最初のアプローチである。
論文 参考訳(メタデータ) (2025-02-03T05:50:55Z) - Leveraging Online Olympiad-Level Math Problems for LLMs Training and Contamination-Resistant Evaluation [55.21013307734612]
AoPS-Instructは60,000以上の高品質QAペアのデータセットである。
LiveAoPSBenchは、最新のフォーラムデータから派生したタイムスタンプによる進化的評価セットである。
我々の研究は、高度な数学推論のための大規模で高品質なデータセットの作成と維持にスケーラブルなアプローチを提示している。
論文 参考訳(メタデータ) (2025-01-24T06:39:38Z) - Learning to Ask: When LLM Agents Meet Unclear Instruction [55.65312637965779]
大きな言語モデル(LLM)は、言語スキルだけでは達成不可能なタスクに対処するための外部ツールを活用することができる。
我々は、不完全な命令下でのLLMツールの使用性能を評価し、エラーパターンを分析し、Noisy ToolBenchと呼ばれる挑戦的なツール使用ベンチマークを構築した。
Ask-when-Needed (AwN) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-31T23:06:12Z) - LLMs in the Imaginarium: Tool Learning through Simulated Trial and Error [54.954211216847135]
既存の大規模言語モデル(LLM)は30%から60%の範囲でしか正当性に至らない。
試行錯誤(STE)を模擬したツール拡張LDMの生物学的なインスピレーション法を提案する。
STEは、試行錯誤、想像力、記憶という、生物学的システムにおけるツール使用行動の成功のための3つの重要なメカニズムを編成する。
論文 参考訳(メタデータ) (2024-03-07T18:50:51Z) - Look Before You Leap: Towards Decision-Aware and Generalizable Tool-Usage for Large Language Models [26.28459880766842]
意思決定・汎用ツール・ユース・フレームワーク(DEER)を提案する。
具体的には、まず、自動生成パイプラインを介して、複数の決定ブランチを持つツール使用サンプルを構築します。
提案するDEERは, 各種データセットのベースラインよりも効果的で, 著しく優れる。
論文 参考訳(メタデータ) (2024-02-26T16:11:03Z) - Efficient Tool Use with Chain-of-Abstraction Reasoning [63.08202389132155]
大規模言語モデル(LLM)は、現実世界の知識に対する推論の基礎となる必要がある。
マルチステップ推論問題におけるツールの実行には,微調整LDMエージェントの課題が残されている。
マルチステップ推論におけるツールの活用方法として, LLM の新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-30T21:53:30Z) - RECALL: A Benchmark for LLMs Robustness against External Counterfactual
Knowledge [69.79676144482792]
本研究の目的は,LLMが外部知識から信頼できる情報を識別する能力を評価することである。
本ベンチマークは,質問応答とテキスト生成という2つのタスクから構成される。
論文 参考訳(メタデータ) (2023-11-14T13:24:19Z) - CREATOR: Tool Creation for Disentangling Abstract and Concrete Reasoning of Large Language Models [74.22729793816451]
大規模言語モデル(LLM)はツールの利用において大きな進歩を遂げているが、その能力はAPIの可用性によって制限されている。
我々は、LCMがドキュメンテーションとコード実現を使って独自のツールを作成できる新しいフレームワークCREATORを提案する。
我々は,MATH と TabMWP のベンチマークで CREATOR を評価する。
論文 参考訳(メタデータ) (2023-05-23T17:51:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。