論文の概要: CITI: Enhancing Tool Utilizing Ability in Large Language Models without Sacrificing General Performance
- arxiv url: http://arxiv.org/abs/2409.13202v2
- Date: Mon, 23 Sep 2024 05:38:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-26 02:58:20.144314
- Title: CITI: Enhancing Tool Utilizing Ability in Large Language Models without Sacrificing General Performance
- Title(参考訳): CITI: 一般的なパフォーマンスを犠牲にすることなく、大規模言語モデルの能力を活用したツール
- Authors: Yupu Hao, Pengfei Cao, Zhuoran Jin, Huanxuan Liao, Yubo Chen, Kang Liu, Jun Zhao,
- Abstract要約: コンポーネントベースツール活用能力注入法(CITI)を提案する。
異なるコンポーネントの勾配に基づく重要度スコアによると、CITIは微調整プロセスによって生じる能力衝突を軽減する。
実験結果から,本手法は様々な評価指標において優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 17.723293304671877
- License:
- Abstract: Tool learning enables the Large Language Models (LLMs) to interact with the external environment by invoking tools, enriching the accuracy and capability scope of LLMs. However, previous works predominantly focus on improving model's tool-utilizing accuracy and the ability to generalize to new, unseen tools, excessively forcing LLMs to adjust specific tool-invoking pattern without considering the harm to model's general performance. This deviates from the actual applications and original intention of integrating tools to enhance model. To tackle this problem, we dissect the capability trade-offs by examining the hidden representation changes and the gradient-based importance score of model's components. Based on the analysis result, we propose a Component Importance-based Tool-utilizing ability Injection method (CITI). According to the gradient-based importance score of different components, it alleviates the capability conflicts caused by fine-tuning process by applying distinct training strategies to different components. CITI applies Mixture-Of-LoRA (MOLoRA) for important components. Meanwhile, it fine-tunes the parameters of few components deemed less important in the backbone of the LLM, while keeping other parameters frozen. CITI can effectively enhance the model's tool-utilizing capability without excessively compromising its general performance. Experimental results demonstrate that our approach achieves outstanding performance across a range of evaluation metrics.
- Abstract(参考訳): ツール学習により、LLM(Large Language Models)は、ツールを呼び出し、LLMの精度と能力範囲を拡大することで、外部環境と対話することができる。
しかし、従来の研究は、モデルのツール利用精度の向上と、新しい見えないツールに一般化する能力に重点を置いており、LLMはモデルの一般的なパフォーマンスに害を加えることなく、特定のツール呼び出しパターンを調整せざるを得なかった。
これは、実際のアプリケーションと、モデルを強化するツールを統合する本来の意図から逸脱する。
この問題に対処するために、モデルコンポーネントの隠蔽表現変化と勾配に基づく重要度スコアを調べることにより、機能トレードオフを識別する。
分析結果に基づいて,CITI (Component Importance-based Tool-utilizing ability Injection) を提案する。
異なるコンポーネントの勾配に基づく重要度スコアによると、異なるコンポーネントに異なるトレーニング戦略を適用することで、微調整プロセスによって生じる能力衝突を軽減する。
CITIは重要なコンポーネントに対してMixture-Of-LoRA(MOLoRA)を適用する。
一方、LSMのバックボーンでは重要でないと考えられる少数のコンポーネントのパラメータを微調整し、他のパラメータは凍結する。
CITIは、その一般的なパフォーマンスを過度に損なうことなく、モデルのツール活用能力を効果的に強化することができる。
実験結果から,本手法は様々な評価指標において優れた性能を発揮することが示された。
関連論文リスト
- MetaTool: Facilitating Large Language Models to Master Tools with Meta-task Augmentation [25.360660222418183]
我々は、再利用可能なツールセットをマスターするために一般化可能な新しいツール学習手法(MetaTool)を導入する。
我々は,ツール実行のマスキング要因を予測するメタタスクを開発した。
メタタスクデータを命令チューニングプロセスに組み込むことで,提案したMetaToolモデルは,オープンソースモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2024-07-15T10:15:41Z) - What Affects the Stability of Tool Learning? An Empirical Study on the Robustness of Tool Learning Frameworks [33.51887014808227]
本稿では,ツール学習フレームワークの性能に及ぼす内部要因と外部要因の影響について検討する。
今後の研究には、LCMが試行錯誤の増加から大きな恩恵を受けることができるという観察など、洞察に富んだ結論がいくつか見出される。
論文 参考訳(メタデータ) (2024-07-03T11:06:05Z) - Enhancing Tool Retrieval with Iterative Feedback from Large Language Models [9.588592185027455]
大規模言語モデル(LLM)は、コンテキスト内学習や微調整を通じて、ある程度のツールを効果的に扱うことができる。
現実のシナリオでは、ツールの数は一般的に広範囲で不規則に更新され、専用のツール検索コンポーネントの必要性を強調している。
本稿では,大規模言語モデルからの反復的なフィードバックでツール検索を強化することを提案する。
論文 参考訳(メタデータ) (2024-06-25T11:12:01Z) - DETAIL: Task DEmonsTration Attribution for Interpretable In-context Learning [75.68193159293425]
インコンテキスト学習(ICL)により、トランスフォーマーベースの言語モデルでは、パラメータを更新することなく、いくつかの"タスクデモ"で特定のタスクを学習することができる。
ICLの特徴に対処する影響関数に基づく帰属手法DETAILを提案する。
ホワイトボックスモデルで得られた属性スコアがブラックボックスモデルに転送可能であることを示すことにより、モデル性能を向上させる上で、DETAILの広範な適用性を実験的に証明する。
論文 参考訳(メタデータ) (2024-05-22T15:52:52Z) - LM Transparency Tool: Interactive Tool for Analyzing Transformer Language Models [10.452149013566157]
LM Transparency Tool (LM-TT) は、トランスフォーマーベースの言語モデルの内部動作を分析するためのオープンソースのインタラクティブツールキットである。
インプット・トゥ・アウトプット・インフォメーション・フロー全体の重要な部分を示す。
論文 参考訳(メタデータ) (2024-04-10T13:39:11Z) - Look Before You Leap: Towards Decision-Aware and Generalizable Tool-Usage for Large Language Models [26.28459880766842]
意思決定・汎用ツール・ユース・フレームワーク(DEER)を提案する。
具体的には、まず、自動生成パイプラインを介して、複数の決定ブランチを持つツール使用サンプルを構築します。
提案するDEERは, 各種データセットのベースラインよりも効果的で, 著しく優れる。
論文 参考訳(メタデータ) (2024-02-26T16:11:03Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、より多くの洞察を提供するさまざまなメトリクスの使用を可能にします。
本稿では,言語モデル(LM)のパワーを活用し,効率と効率を向上させる新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - T-Eval: Evaluating the Tool Utilization Capability of Large Language
Models Step by Step [69.64348626180623]
大規模言語モデル (LLM) は様々なNLPタスクにおいて顕著な性能を達成した。
LLMのツール活用能力の評価と分析方法はまだ未検討である。
ツール利用能力を段階的に評価するためにT-Evalを導入する。
論文 参考訳(メタデータ) (2023-12-21T17:02:06Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z) - Variable Importance Matching for Causal Inference [73.25504313552516]
これらの目標を達成するためのModel-to-Matchと呼ばれる一般的なフレームワークについて説明する。
Model-to-Matchは、距離メートル法を構築するために変数重要度測定を使用する。
LASSO を用いて Model-to-Match フレームワークを運用する。
論文 参考訳(メタデータ) (2023-02-23T00:43:03Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。