論文の概要: Beyond Semantic Similarity: Reducing Unnecessary API Calls via Behavior-Aligned Retriever
- arxiv url: http://arxiv.org/abs/2508.14323v1
- Date: Wed, 20 Aug 2025 00:35:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.294813
- Title: Beyond Semantic Similarity: Reducing Unnecessary API Calls via Behavior-Aligned Retriever
- Title(参考訳): セマンティックな類似性を超えて - 振る舞い指向リトライバによる不要なAPI呼び出しの削減
- Authors: Yixin Chen, Ying Xiong, Shangyu Wu, Yufei Cui, Xue Liu, Nan Guan, Chun Jason Xue,
- Abstract要約: ツール拡張大型言語モデル(LLM)は、その機能を拡張するために外部関数を活用する。
不正確な関数呼び出しは非効率とコストの増加につながる可能性がある。
既存の手法では、LLMを微調整したり、デモベースのプロンプトを使ってこの問題に対処している。
我々は行動整合性を示す行動整合性レトリバー(BAR)を訓練した。
- 参考スコア(独自算出の注目度): 19.339791425830583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tool-augmented large language models (LLMs) leverage external functions to extend their capabilities, but inaccurate function calls can lead to inefficiencies and increased costs.Existing methods address this challenge by fine-tuning LLMs or using demonstration-based prompting, yet they often suffer from high training overhead and fail to account for inconsistent demonstration samples, which misguide the model's invocation behavior. In this paper, we trained a behavior-aligned retriever (BAR), which provides behaviorally consistent demonstrations to help LLMs make more accurate tool-using decisions. To train the BAR, we construct a corpus including different function-calling behaviors, i.e., calling or non-calling.We use the contrastive learning framework to train the BAR with customized positive/negative pairs and a dual-negative contrastive loss, ensuring robust retrieval of behaviorally consistent examples.Experiments demonstrate that our approach significantly reduces erroneous function calls while maintaining high task performance, offering a cost-effective and efficient solution for tool-augmented LLMs.
- Abstract(参考訳): ツール拡張された大規模言語モデル(LLM)は、外部関数を活用して機能を拡張するが、不正確な関数呼び出しは、非効率性とコストの増大につながる可能性がある。既存のメソッドは、LLMを微調整したり、デモベースのプロンプトを使用してこの問題に対処するが、トレーニングのオーバーヘッドが高く、モデルの呼び出し動作を誤解する一貫性のないサンプルを説明できないことが多い。
本稿では,LLMがより正確なツール使用判断を行うのに役立つ行動整合性を示す行動整合性レトリバー (BAR) を訓練した。
BARを訓練するために、異なる機能呼び出し行動、すなわち、呼び出しまたは非呼び出しを含むコーパスを構築する。我々は、コントラスト学習フレームワークを使用して、カスタマイズされた正負対と双負対のコントラスト損失でBARを訓練し、行動整合性のある事例を確実に検索する。実験により、我々のアプローチは、高いタスク性能を維持しながら誤動作呼び出しを著しく低減し、ツール強化LPMのコスト効率と効率的なソリューションを提供することを示した。
関連論文リスト
- Leveraging In-Context Learning for Language Model Agents [51.2996117207114]
インコンテキスト学習(ICL)と動的に選択されたデモは、大規模言語モデル(LLM)の柔軟性と、トレーニングデータを活用してパフォーマンスを向上させる能力を組み合わせたものだ。
実演における類似タスクの軌道選択は, LLMエージェントの性能, 信頼性, 堅牢性, 効率を著しく向上させることを示す。
より大規模なモデル(アノテーションフェーズ)から得られた実演により、より小さなモデルも改善され、ICLエージェントはよりコストのかかる訓練されたエージェントと競合する可能性がある。
論文 参考訳(メタデータ) (2025-06-16T05:37:49Z) - FunReason: Enhancing Large Language Models' Function Calling via Self-Refinement Multiscale Loss and Automated Data Refinement [23.301601376960104]
大規模言語モデルの関数呼び出し機能を強化するフレームワークであるFunReasonを紹介する。
FunReasonは、解析可能性、推論コヒーレンス、関数呼び出しの精度に焦点を当てた高品質なトレーニング例を生成する。
FunReasonは、微調整中に破滅的な忘れを効果的に軽減しながら、GPT-4oに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-26T16:38:06Z) - Tapered Off-Policy REINFORCE: Stable and efficient reinforcement learning for LLMs [15.806503459642665]
強化学習を用いた大規模言語モデルの微調整のための新しいアルゴリズムを提案する。
オフ政治体制における正と負の例を適切に活用することで、テスト時間精度とトレーニングデータの効率が同時に向上することを示す。
この研究の結果として、REINFORCEのベースラインパラメータが、ネガティブな例の存在下でデータセット構成を定義する上で、重要かつ予期せぬ役割を担っていることが判明した。
論文 参考訳(メタデータ) (2025-03-18T14:23:37Z) - Magnet: Multi-turn Tool-use Data Synthesis and Distillation via Graph Translation [85.68881632498909]
本稿では,大規模言語モデルエージェントのための高品質なトレーニングトラジェクトリを合成するための原則的フレームワークを提案する。
このフレームワークは、関数シグネチャパスからクエリのシーケンスと実行可能な関数呼び出しへの自動的で反復的な変換に基づいている。
実験の結果,14BモデルであるMagnetic-14B-mDPOでは,BFCL-v3では68.01,ToolQueryでは73.30が得られた。
論文 参考訳(メタデータ) (2025-03-10T20:13:07Z) - Alopex: A Computational Framework for Enabling On-Device Function Calls with LLMs [31.961168273386757]
AlopexはFox Large Language Modelsを使ってデバイス上で正確な関数呼び出しを可能にするフレームワークである。
データミキシング戦略は破滅的な忘れを軽減し、関数呼び出しデータと教科書データセットを組み合わせて様々なタスクのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-11-07T22:15:17Z) - Learning to Ask: When LLM Agents Meet Unclear Instruction [55.65312637965779]
大きな言語モデル(LLM)は、言語スキルだけでは達成不可能なタスクに対処するための外部ツールを活用することができる。
我々は、不完全な命令下でのLLMツールの使用性能を評価し、エラーパターンを分析し、Noisy ToolBenchと呼ばれる挑戦的なツール使用ベンチマークを構築した。
Ask-when-Needed (AwN) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-31T23:06:12Z) - Model Surgery: Modulating LLM's Behavior Via Simple Parameter Editing [63.20133320524577]
パラメータの小さなサブセットを編集することで、大きな言語モデル(LLM)の特定の振る舞いを効果的に調節できることを示す。
我々の手法は、RealToxicityPromptsデータセットで最大90.0%の毒性を減少させ、ToxiGenで49.2%を達成する。
論文 参考訳(メタデータ) (2024-07-11T17:52:03Z) - Inverse-RLignment: Large Language Model Alignment from Demonstrations through Inverse Reinforcement Learning [62.05713042908654]
本稿では,これらの課題を克服するために,高品質な実演データを活用する新しいアプローチであるAlignment from Demonstrations (AfD)を紹介する。
AfDをシーケンシャルな意思決定フレームワークで形式化し、報酬信号の欠如というユニークな課題を強調します。
そこで本研究では,AfD に適した報酬モデル上で補間を行う計算効率のよいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-24T15:13:53Z) - InferAligner: Inference-Time Alignment for Harmlessness through
Cross-Model Guidance [56.184255657175335]
我々は,無害アライメントのためのクロスモデルガイダンスを利用する新しい推論時間アライメント手法であるtextbfInferAligner を開発した。
実験結果から,本手法はファイナンス,医学,数学の分野特化モデルに極めて効果的に適用可能であることが示された。
これは有害な命令とジェイルブレイク攻撃の両方のアタック成功率(ASR)を著しく低下させ、下流タスクではほとんど変化のないパフォーマンスを維持している。
論文 参考訳(メタデータ) (2024-01-20T10:41:03Z) - Dr.ICL: Demonstration-Retrieved In-context Learning [29.142262267850704]
インコンテキスト学習(ICL)は、LLMを使用するための強力なパラダイムとして、数発のデモでタスクを実行するために大きな言語モデルを教える。
最近の研究では、利用可能なデモのプールからの入力に対して意味論的に類似したデモを取得することで、より良いパフォーマンスが得られることが示唆されている。
この研究は、BM25のような単純な単語オーバーラップ類似度対策でさえ、ランダムに選択された実演よりも優れていることを示すことで、検索ベースのICLアプローチの適用性を拡大する。
論文 参考訳(メタデータ) (2023-05-23T14:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。