論文の概要: Enhancing Tool Learning in Large Language Models with Hierarchical Error Checklists
- arxiv url: http://arxiv.org/abs/2506.00042v1
- Date: Wed, 28 May 2025 08:39:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.612254
- Title: Enhancing Tool Learning in Large Language Models with Hierarchical Error Checklists
- Title(参考訳): 階層型エラーチェックリストを用いた大規模言語モデルにおけるツール学習の強化
- Authors: Yue Cui, Liuyi Yao, Shuchang Tao, Weijie Shi, Yaliang Li, Bolin Ding, Xiaofang Zhou,
- Abstract要約: 本稿では,階層型ツールエラーチェックリスト(HiTEC)フレームワークを提案する。
HiTECでは、共通、クロスツールの問題を特定するグローバルエラーチェックリストと、ツール固有の、コンテキストの障害をターゲットとするローカルエラーチェックリストという、2段階のアプローチを導入している。
本フレームワークは,基本手法と比較してパラメータ充足精度とツールコール成功率を大幅に改善する。
- 参考スコア(独自算出の注目度): 49.450160442348825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have significantly advanced natural language processing, particularly through the integration of external tools and APIs. However, their effectiveness is frequently hampered by parameter mis-filling during tool calling. In this paper, we propose the Hierarchical Tool Error Checklist (HiTEC) framework to systematically diagnose and mitigate tool-calling errors without relying on extensive real-world interactions. HiTEC introduces a two-tiered approach: a global error checklist that identifies common, cross-tool issues, and a local error checklist that targets tool-specific and contextual failures. Building on this structure, we propose two deployments: HiTEC-In Context Learning (HiTEC-ICL) and HiTEC-Kahneman-Tversky Optimization (HiTEC-KTO). HiTEC-ICL embeds the global checklist in the initial prompts and leverages a two-round conversational interaction to dynamically refine parameter handling, while HiTEC-KTO generates high-quality negative examples to drive fine-tuning via preference-based optimization. Extensive experiments across five public datasets demonstrate that our framework significantly improves parameter-filling accuracy and tool-calling success rates compared to baseline methods.
- Abstract(参考訳): 大規模言語モデル(LLM)は、特に外部ツールやAPIの統合によって、大幅に進歩した自然言語処理を持つ。
しかし、それらの効果は、ツール呼び出し中にパラメータのミスフィリングによってしばしば妨げられる。
本稿では,階層型ツールエラーチェックリスト(HiTEC)フレームワークを提案する。
HiTECでは、共通、クロスツールの問題を特定するグローバルエラーチェックリストと、ツール固有の、コンテキストの障害をターゲットとするローカルエラーチェックリストという、2段階のアプローチを導入している。
この構造に基づいて,HiTEC-In Context Learning (HiTEC-ICL) とHiTEC-Kahneman-Tversky Optimization (HiTEC-KTO) の2つの配置を提案する。
HiTEC-ICLは初期プロンプトにグローバルチェックリストを埋め込んで2ラウンドの対話インタラクションを利用してパラメータハンドリングを動的に洗練する。
5つの公開データセットにわたる大規模な実験により、我々のフレームワークは基準手法と比較してパラメータ充足精度とツールコール成功率を大幅に改善することを示した。
関連論文リスト
- TTPA: Token-level Tool-use Preference Alignment Training Framework with Fine-grained Evaluation [27.71948796412585]
Token-level Tool-use Preference Orignment Training Framework (TTPA)
TTPAはトークンレベルのツール使用嗜好データセットを構築するためのトレーニングパラダイムである。
論文 参考訳(メタデータ) (2025-05-26T14:06:02Z) - Acting Less is Reasoning More! Teaching Model to Act Efficiently [87.28134636548705]
ツール統合推論は、タスクを解決するために外部ツールを呼び出す機能によって、大きな言語モデルを拡張します。
現在のアプローチは、外部ツールの使用効率や必要性を考慮せずに、最終的な正確性のためにのみ最適化されている。
最小限のツールコールで正確な回答をモデルに提示するフレームワークを提案する。
このアプローチでは,ツールコールを最大68.3%削減し,ツールの生産性を最大215.4%向上すると同時に,同等の回答精度を維持している。
論文 参考訳(メタデータ) (2025-04-21T05:40:05Z) - AskToAct: Enhancing LLMs Tool Use via Self-Correcting Clarification [25.27444694706659]
AskToActは、クエリとそのツール呼び出しソリューション間の構造マッピングを利用する。
私たちの重要な洞察は、ツールパラメータが明示的なユーザ意図を自然に表現していることです。
クエリから重要なパラメータを体系的に取り除き,それらを根拠として保持することにより,高品質なトレーニングデータの自動構築を可能にする。
論文 参考訳(メタデータ) (2025-03-03T12:55:49Z) - Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger [49.81945268343162]
我々は,外部ツール利用のための適応型意思決定戦略であるMeCoを提案する。
MeCoは表現空間の高レベル認知信号をキャプチャし、ツールを呼び出すタイミングを指示する。
実験の結果,MeCoはLSMの内部認知信号を正確に検出し,ツール使用による意思決定を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2025-02-18T15:45:01Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Correct Like Humans: Progressive Learning Framework for Chinese Text Error Correction [28.25789161365667]
Chinese Text Error Correction (CTEC) は、入力テキスト中のエラーを検出し、修正することを目的としている。
最近のアプローチではCTECの解決にPLM(Pre-trained Language Models)を主に採用している。
本稿では,PLMをベースとしたCTECモデルを誘導し,人間のように修正する,モデルに依存しない新しいプログレッシブラーニングフレームワークProTECを提案する。
論文 参考訳(メタデータ) (2023-06-30T07:44:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。