論文の概要: CITI: Enhancing Tool Utilizing Ability in Large Language Models without Sacrificing General Performance
- arxiv url: http://arxiv.org/abs/2409.13202v2
- Date: Mon, 23 Sep 2024 05:38:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 11:29:51.758713
- Title: CITI: Enhancing Tool Utilizing Ability in Large Language Models without Sacrificing General Performance
- Title(参考訳): CITI: 一般的なパフォーマンスを犠牲にすることなく、大規模言語モデルの能力を活用したツール
- Authors: Yupu Hao, Pengfei Cao, Zhuoran Jin, Huanxuan Liao, Yubo Chen, Kang Liu, Jun Zhao,
- Abstract要約: コンポーネントベースツール活用能力注入法(CITI)を提案する。
異なるコンポーネントの勾配に基づく重要度スコアによると、CITIは微調整プロセスによって生じる能力衝突を軽減する。
実験結果から,本手法は様々な評価指標において優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 17.723293304671877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tool learning enables the Large Language Models (LLMs) to interact with the external environment by invoking tools, enriching the accuracy and capability scope of LLMs. However, previous works predominantly focus on improving model's tool-utilizing accuracy and the ability to generalize to new, unseen tools, excessively forcing LLMs to adjust specific tool-invoking pattern without considering the harm to model's general performance. This deviates from the actual applications and original intention of integrating tools to enhance model. To tackle this problem, we dissect the capability trade-offs by examining the hidden representation changes and the gradient-based importance score of model's components. Based on the analysis result, we propose a Component Importance-based Tool-utilizing ability Injection method (CITI). According to the gradient-based importance score of different components, it alleviates the capability conflicts caused by fine-tuning process by applying distinct training strategies to different components. CITI applies Mixture-Of-LoRA (MOLoRA) for important components. Meanwhile, it fine-tunes the parameters of few components deemed less important in the backbone of the LLM, while keeping other parameters frozen. CITI can effectively enhance the model's tool-utilizing capability without excessively compromising its general performance. Experimental results demonstrate that our approach achieves outstanding performance across a range of evaluation metrics.
- Abstract(参考訳): ツール学習により、LLM(Large Language Models)は、ツールを呼び出し、LLMの精度と能力範囲を拡大することで、外部環境と対話することができる。
しかし、従来の研究は、モデルのツール利用精度の向上と、新しい見えないツールに一般化する能力に重点を置いており、LLMはモデルの一般的なパフォーマンスに害を加えることなく、特定のツール呼び出しパターンを調整せざるを得なかった。
これは、実際のアプリケーションと、モデルを強化するツールを統合する本来の意図から逸脱する。
この問題に対処するために、モデルコンポーネントの隠蔽表現変化と勾配に基づく重要度スコアを調べることにより、機能トレードオフを識別する。
分析結果に基づいて,CITI (Component Importance-based Tool-utilizing ability Injection) を提案する。
異なるコンポーネントの勾配に基づく重要度スコアによると、異なるコンポーネントに異なるトレーニング戦略を適用することで、微調整プロセスによって生じる能力衝突を軽減する。
CITIは重要なコンポーネントに対してMixture-Of-LoRA(MOLoRA)を適用する。
一方、LSMのバックボーンでは重要でないと考えられる少数のコンポーネントのパラメータを微調整し、他のパラメータは凍結する。
CITIは、その一般的なパフォーマンスを過度に損なうことなく、モデルのツール活用能力を効果的に強化することができる。
実験結果から,本手法は様々な評価指標において優れた性能を発揮することが示された。
関連論文リスト
- Meta-Reasoning Improves Tool Use in Large Language Models [10.193264105560864]
外部ツールは、大言語モデル(LLM)が通常失敗するタスクを成功させるのに役立つ。
本稿では、カスタムの微調整LMヘッドを用いてタスクを優先的に処理し、候補ツールを出力する2相システムであるMeta-reasONing(TECTON)によるツールセレクションを提案する。
論文 参考訳(メタデータ) (2024-11-07T08:48:33Z) - From Exploration to Mastery: Enabling LLMs to Master Tools via Self-Driven Interactions [60.733557487886635]
本稿では,大規模言語モデルと外部ツールとの包括的ギャップを埋めることに焦点を当てる。
ツール文書の動的精錬を目的とした新しいフレームワーク DRAFT を提案する。
複数のデータセットに対する大規模な実験は、DRAFTの反復的なフィードバックベースの改善がドキュメントの品質を大幅に改善することを示している。
論文 参考訳(メタデータ) (2024-10-10T17:58:44Z) - Learning Evolving Tools for Large Language Models [44.25796648300785]
ツール変数に対する大規模言語モデル(LLM)の適応性と反射性を向上するツールEVOを提案する。
Monte Carlo Tree Searchを活用することで、ToolEVOは動的環境におけるLLMの積極的な探索と相互作用を促進する。
また、ツール変数の影響を評価するために特別に設計されたベンチマークであるToolQA-Dを紹介する。
論文 参考訳(メタデータ) (2024-10-09T07:14:45Z) - LLM With Tools: A Survey [0.0]
本稿では,LCMに外部ツールの使用を教える領域における方法論,問題点,展開について述べる。
ユーザ命令を実行可能なプランにマッピングする一連の関数によってガイドされるツール統合のための標準化パラダイムを導入する。
調査の結果,ツール起動タイミング,選択精度,堅牢な推論プロセスの必要性など,さまざまな課題が明らかになった。
論文 参考訳(メタデータ) (2024-09-24T14:08:11Z) - What Affects the Stability of Tool Learning? An Empirical Study on the Robustness of Tool Learning Frameworks [33.51887014808227]
本稿では,ツール学習フレームワークの性能に及ぼす内部要因と外部要因の影響について検討する。
今後の研究には、LCMが試行錯誤の増加から大きな恩恵を受けることができるという観察など、洞察に富んだ結論がいくつか見出される。
論文 参考訳(メタデータ) (2024-07-03T11:06:05Z) - Towards Completeness-Oriented Tool Retrieval for Large Language Models [60.733557487886635]
現実世界のシステムは多種多様なツールを組み込んでおり、全てのツールを大規模言語モデルに入力することは不可能である。
既存のツール検索手法は主にユーザクエリとツール記述間のセマンティックマッチングに焦点を当てている。
我々は,ユーザクエリとツール記述のセマンティックな類似性だけでなく,ツールの協調的情報も考慮した,新しいモデル診断型協調学習型ツール検索手法であるCOLTを提案する。
論文 参考訳(メタデータ) (2024-05-25T06:41:23Z) - DETAIL: Task DEmonsTration Attribution for Interpretable In-context Learning [75.68193159293425]
インコンテキスト学習(ICL)により、トランスフォーマーベースの言語モデルでは、パラメータを更新することなく、いくつかの"タスクデモ"で特定のタスクを学習することができる。
ICLの特徴に対処する影響関数に基づく帰属手法DETAILを提案する。
ホワイトボックスモデルで得られた属性スコアがブラックボックスモデルに転送可能であることを示すことにより、モデル性能を向上させる上で、DETAILの広範な適用性を実験的に証明する。
論文 参考訳(メタデータ) (2024-05-22T15:52:52Z) - LM Transparency Tool: Interactive Tool for Analyzing Transformer Language Models [10.452149013566157]
LM Transparency Tool (LM-TT) は、トランスフォーマーベースの言語モデルの内部動作を分析するためのオープンソースのインタラクティブツールキットである。
インプット・トゥ・アウトプット・インフォメーション・フロー全体の重要な部分を示す。
論文 参考訳(メタデータ) (2024-04-10T13:39:11Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z) - Variable Importance Matching for Causal Inference [73.25504313552516]
これらの目標を達成するためのModel-to-Matchと呼ばれる一般的なフレームワークについて説明する。
Model-to-Matchは、距離メートル法を構築するために変数重要度測定を使用する。
LASSO を用いて Model-to-Match フレームワークを運用する。
論文 参考訳(メタデータ) (2023-02-23T00:43:03Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。