論文の概要: Think-Augmented Function Calling: Improving LLM Parameter Accuracy Through Embedded Reasoning
- arxiv url: http://arxiv.org/abs/2601.18282v1
- Date: Mon, 26 Jan 2026 09:05:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.752548
- Title: Think-Augmented Function Calling: Improving LLM Parameter Accuracy Through Embedded Reasoning
- Title(参考訳): Think-Augmented Function Calling: Embedded ReasoningによるLCMパラメータの精度向上
- Authors: Lei Wei, Jinpeng Ou, Xiao Peng, Bin Wang,
- Abstract要約: Think-Augmented Function Calling (TAFC) は関数呼び出しの精度を高める新しいフレームワークである。
本手法では,モデルによる意思決定プロセスの明確化を可能にする,普遍的な"思考"パラメータ拡張を提案する。
複雑なパラメータに対して、TAFCは、スコアリング複雑性に基づいて、自動的に詳細な推論をトリガーし、臨界決定に対する適切な正当性を保証する。
- 参考スコア(独自算出の注目度): 4.313214143035558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have demonstrated remarkable capabilities in function calling for autonomous agents, yet current mechanisms lack explicit reasoning transparency during parameter generation, particularly for complex functions with interdependent parameters. While existing approaches like chain-of-thought prompting operate at the agent level, they fail to provide fine-grained reasoning guidance for individual function parameters. To address these limitations, we propose Think-Augmented Function Calling (TAFC), a novel framework that enhances function calling accuracy through explicit reasoning at both function and parameter levels. Our method introduces a universal "think" parameter augmentation that enables models to articulate their decision-making process, with dynamic optimization for parameter descriptions to improve reasoning quality. For complex parameters, TAFC automatically triggers granular reasoning based on complexity scoring, ensuring appropriate justification for critical decisions. Additionally, we propose reasoning-guided optimization to align generated reasoning with human expectations. TAFC requires no architectural modifications to existing LLMs while maintaining full API compatibility. Evaluation on ToolBench across proprietary and open-source models demonstrates significant improvements in parameter generation accuracy and reasoning coherence for multi-parameter functions, while providing enhanced interpretability for debugging AI agent behaviors.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自律的なエージェントを呼び出す機能において顕著な機能を示すが、現在のメカニズムはパラメータ生成中に明確な推論透過性を欠いている。
チェーン・オブ・ソートのような既存のアプローチはエージェントレベルでの操作を促すが、個々の関数パラメータの詳細な推論ガイダンスは提供できない。
これらの制約に対処するために,関数とパラメータレベルの明示的推論によって関数呼び出し精度を高める新しいフレームワークであるThink-Augmented Function Calling (TAFC)を提案する。
提案手法では,パラメータ記述を動的に最適化して推論品質を向上させることにより,モデルによる意思決定プロセスの明確化を可能にする,普遍的な"思考"パラメータ拡張を提案する。
複雑なパラメータに対して、TAFCは、複雑性のスコアリングに基づいて、自動的に詳細な推論をトリガーし、臨界決定に対する適切な正当性を保証する。
さらに,人間の期待に合わせた推論を行うための推論誘導最適化を提案する。
TAFCは、完全なAPI互換性を維持しながら、既存のLLMにアーキテクチャの変更を必要としない。
プロプライエタリモデルとオープンソースモデルによるToolBenchの評価では、パラメータ生成精度と多パラメータ関数の推論コヒーレンスが大幅に向上し、AIエージェントの動作をデバッグするための解釈性も向上している。
関連論文リスト
- High-Rank Structured Modulation for Parameter-Efficient Fine-Tuning [57.85676271833619]
低ランク適応 (LoRA) は、全パラメータの微調整をシミュレートするために低ランク更新法を用いる。
textbfStructured textbfMOdulation textbfAdapterは、より高いランクを維持しながらトレーニング可能なパラメータを少なくする。
論文 参考訳(メタデータ) (2026-01-12T13:06:17Z) - Relation-Aware Bayesian Optimization of DBMS Configurations Guided by Affinity Scores [2.474203056060563]
データベース管理システム(DBMS)は,大規模および異種データの管理に基本的であり,その性能は構成パラメータの影響を強く受けている。
近年の研究では、機械学習を用いた自動構成最適化に焦点が当てられているが、既存のアプローチにはいくつかの重要な制限がある。
パラメータ依存をグラフとして表現する新しいフレームワークであるRelTuneを提案し,パフォーマンス関連セマンティクスを符号化したGNNベースの潜伏埋め込みを学習する。
論文 参考訳(メタデータ) (2025-10-31T03:46:42Z) - AILoRA: Function-Aware Asymmetric Initialization for Low-Rank Adaptation of Large Language Models [11.663809872664105]
Low-Rank Adaptation (LoRA)は最も広く採用されているアプローチの1つだ。
LoRAは通常、自己アテンションモジュールの$WQ$と$WV$プロジェクション行列に適用される。
関数認識型非対称な低ランクプリエントを組み込んだ新しいパラメータ効率手法であるtextAILoRA を導入する。
論文 参考訳(メタデータ) (2025-10-09T10:13:16Z) - Continual Adaptation: Environment-Conditional Parameter Generation for Object Detection in Dynamic Scenarios [54.58186816693791]
環境は時間と空間によって常に変化し、クローズドセットの仮定に基づいて訓練された物体検出器にとって重要な課題となる。
そこで本研究では,微調整過程をパラメータ生成に変換する機構を提案する。
特に,2経路LoRAベースのドメイン認識アダプタを最初に設計し,特徴をドメイン不変およびドメイン固有コンポーネントに分解する。
論文 参考訳(メタデータ) (2025-06-30T17:14:12Z) - FunReason: Enhancing Large Language Models' Function Calling via Self-Refinement Multiscale Loss and Automated Data Refinement [23.301601376960104]
大規模言語モデルの関数呼び出し機能を強化するフレームワークであるFunReasonを紹介する。
FunReasonは、解析可能性、推論コヒーレンス、関数呼び出しの精度に焦点を当てた高品質なトレーニング例を生成する。
FunReasonは、微調整中に破滅的な忘れを効果的に軽減しながら、GPT-4oに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-26T16:38:06Z) - Step-by-Step Unmasking for Parameter-Efficient Fine-tuning of Large Language Models [18.877891285367216]
我々はパラメータの重要度を連続的に計算する新しい選択型PEFT法である$textID3$を紹介した。
解析的に、$textID3$は勾配更新数を2倍に減らし、計算効率が向上することを示した。
論文 参考訳(メタデータ) (2024-08-26T17:58:53Z) - Scaling Exponents Across Parameterizations and Optimizers [94.54718325264218]
本稿では,先行研究における重要な仮定を考察し,パラメータ化の新たな視点を提案する。
私たちの経験的調査には、3つの組み合わせでトレーニングされた数万のモデルが含まれています。
最高の学習率のスケーリング基準は、以前の作業の仮定から除外されることがよくあります。
論文 参考訳(メタデータ) (2024-07-08T12:32:51Z) - ETHER: Efficient Finetuning of Large-Scale Models with Hyperplane Reflections [59.839926875976225]
本稿では,HypErplane Reflectionsによる高効率微調整を行うETHER変換ファミリを提案する。
特に,既存のPEFT法と極めて少ないパラメータで一致または性能を向上するEtheRと緩和ETHER+を導入する。
論文 参考訳(メタデータ) (2024-05-30T17:26:02Z) - A Unified Gaussian Process for Branching and Nested Hyperparameter
Optimization [19.351804144005744]
ディープラーニングでは、条件に依存したパラメータのチューニングが一般的に行われている。
新しいGPモデルでは、新しいカーネル関数を通じて入力変数間の依存構造が説明される。
ニューラルネットワークの一連の合成シミュレーションおよび実データ応用において、高い予測精度とより良い最適化効率が観察される。
論文 参考訳(メタデータ) (2024-01-19T21:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。