論文の概要: Making Language Models Better Tool Learners with Execution Feedback
- arxiv url: http://arxiv.org/abs/2305.13068v3
- Date: Thu, 14 Mar 2024 08:15:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-16 03:02:59.046105
- Title: Making Language Models Better Tool Learners with Execution Feedback
- Title(参考訳): 実行フィードバックによる言語モデルの改善
- Authors: Shuofei Qiao, Honghao Gui, Chengfei Lv, Qianghuai Jia, Huajun Chen, Ningyu Zhang,
- Abstract要約: ツールは、人間が環境を理解し、形を変えることができる重要なインターフェースとして機能する。
既存のツール学習手法は、ツールを無差別に活用するために大きな言語モデルを誘導する。
ツール実行からのフィードバックを通じてモデルを継続的に学習することを可能にする2段階のエンドツーエンドフレームワークであるTool leaRning wIth exeCution fEedback (TRICE)を提案する。
- 参考スコア(独自算出の注目度): 36.30542737293863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tools serve as pivotal interfaces that enable humans to understand and reshape the environment. With the advent of foundation models, AI systems can utilize tools to expand their capabilities and interact with the real world. Existing tool learning methodologies, encompassing supervised fine-tuning and prompt engineering approaches, often induce large language models to utilize tools indiscriminately, as complex tasks often exceed their own competencies. However, introducing tools for simple tasks, which the models themselves can readily resolve, can inadvertently propagate errors rather than enhance performance. This leads to the research question: can we teach language models when and how to use tools? To meet this need, we propose Tool leaRning wIth exeCution fEedback (TRICE), a two-stage end-to-end framework that enables the model to continually learn through feedback derived from tool execution, thereby learning when and how to use tools effectively. Experimental results, backed by further analysis, show that TRICE can make the large language model selectively use tools by improving the accuracy of tool usage while enhancing insufficient tool learning and mitigating excessive reliance on tools. Code is available at https://github.com/zjunlp/TRICE.
- Abstract(参考訳): ツールは、人間が環境を理解し、形を変えることができる重要なインターフェースとして機能する。
基礎モデルの出現により、AIシステムは、その能力を拡張し、現実世界と対話するツールを利用することができる。
既存のツール学習手法は、教師付き微調整と迅速なエンジニアリングアプローチを含んでおり、複雑なタスクが自身の能力を超える場合が多いため、しばしば大きな言語モデルにツールを無差別に活用させる。
しかし、モデル自体が容易に解決できる単純なタスクのためのツールを導入することは、パフォーマンスを向上させるのではなく、不注意にエラーを伝播させる可能性がある。
言語モデルにいつ、どのようにツールを使うかを教えることができるか?
このニーズを満たすために,ツールleaRning wIth exeCution fEedback (TRICE) という2段階のエンドツーエンドフレームワークを提案する。
さらなる分析によって得られた実験結果から, TRICEはツールの精度を向上し, ツール学習の不十分さを軽減し, ツールへの過剰依存を軽減することで, 大規模言語モデルをツールを選択的に活用できることが示唆された。
コードはhttps://github.com/zjunlp/TRICEで入手できる。
関連論文リスト
- TOOLVERIFIER: Generalization to New Tools via Self-Verification [69.85190990517184]
本稿では,ツール選択中にコントラスト質問を自己問合せすることで,近接候補を識別する自己検証手法を提案する。
ToolBenchベンチマークによる4つのタスクの実験では、17の見えないツールで構成されており、数ショットのベースラインよりも平均22%改善されている。
論文 参考訳(メタデータ) (2024-02-21T22:41:38Z) - EASYTOOL: Enhancing LLM-based Agents with Concise Tool Instruction [58.43384002452624]
EasyToolは、多種多様で長いツールドキュメントを統一的で簡潔なツール命令に変換するフレームワークである。
トークン使用量を大幅に削減し、現実のシナリオにおけるツール利用のパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2024-01-11T15:45:11Z) - Syntax Error-Free and Generalizable Tool Use for LLMs via Finite-State
Decoding [12.58136035688171]
大規模言語モデル(LLM)は、複雑な問題を解決するために外部ツールを使用する上で有望な能力を示している。
既存のアプローチには、追加のトレーニングなしで新しいツールに一般化しないツールデモの微調整や、コンテキスト内のツールドキュメントの提供が含まれる。
ツール拡張 LLM のための有限エンハンスマシン誘導復号法である ToolDec を提案する。
論文 参考訳(メタデータ) (2023-10-10T23:37:53Z) - Confucius: Iterative Tool Learning from Introspection Feedback by
Easy-to-Difficult Curriculum [42.36892453363961]
本研究では,大規模言語モデル(LLM)を学習し,現実のシナリオで複雑なツールを使用するための新しいツール学習フレームワークを提案する。
まず,多段階の学習手法を提案する。
次に、イントロスペクティブフィードバックからの反復自己インストラクションを提案し、データセットを動的に構築し、複雑なツールを使用する能力を改善する。
論文 参考訳(メタデータ) (2023-08-27T07:53:00Z) - ToolAlpaca: Generalized Tool Learning for Language Models with 3000
Simulated Cases [49.7798644853604]
本稿では,多種多様なツール利用コーパスを自動生成し,コンパクト言語モデル上での汎用ツール利用能力を学習するためのフレームワークであるToolAlpacaを紹介する。
ToolAlpacaは,GPT-3.5のような非常に大きな言語モデルに匹敵する,効果的な汎用ツール利用能力を実現する。
論文 参考訳(メタデータ) (2023-06-08T15:46:32Z) - Large Language Models as Tool Makers [85.00361145117293]
我々はLLM A s Tool Makers (LATM) と呼ばれるクローズドループフレームワークを導入する。
ツール作成: 1 つのツール作成: LLM がタスクセットのためのツールを作成するツールメーカとして機能する 2 つのツール使用: 別の LLM がツールユーザとして機能し、ツールメーカが問題解決のために構築したツールを適用する。
論文 参考訳(メタデータ) (2023-05-26T17:50:11Z) - ToolkenGPT: Augmenting Frozen Language Models with Massive Tools via
Tool Embeddings [25.5476046472217]
大規模な言語モデルを外部ツールで拡張することは、複雑な問題を解決するための有望なアプローチとして現れている。
最近のインコンテキスト学習パラダイムはこれらの問題を緩和するが、制限されたコンテキスト長はいくつかのデモのみを可能にする。
我々は、両者の利点を組み合わせた代替アプローチである$textbfToolkenGPT$を提案する。
論文 参考訳(メタデータ) (2023-05-19T09:54:21Z) - Tool Learning with Foundation Models [114.2581831746077]
基礎モデルの出現により、AIシステムは、人間としてのツールの使用に等しく適応できる可能性がある。
その大きな可能性にもかかわらず、この分野における重要な課題、機会、そして将来の取り組みに関する包括的な理解はいまだに欠けている。
論文 参考訳(メタデータ) (2023-04-17T15:16:10Z) - Toolformer: Language Models Can Teach Themselves to Use Tools [62.04867424598204]
言語モデル(LM)は、特に大規模において、いくつかの例やテキスト命令から新しいタスクを解く素晴らしい能力を示す。
LMは、シンプルなAPIを通じて外部ツールの使用を自覚し、両方の世界のベストを達成できることを示します。
Toolformerは、どのAPIを呼び出すか、いつ呼び出すか、どの引数を渡すか、結果を将来のトークン予測に最もうまく組み込む方法を訓練したモデルです。
論文 参考訳(メタデータ) (2023-02-09T16:49:57Z) - Leveraging Language for Accelerated Learning of Tool Manipulation [26.005786958480208]
ツールに関する言語情報が,特定のタスクに対する新しいツールに迅速に適応する上で,ポリシーの制御に有効かどうかを検討する。
自然言語における様々なツールの多様な記述を取得し,事前学習した言語モデルを用いて特徴表現を生成する。
次に、言語条件のメタラーニングを行い、対応するテキスト記述から、新しいツールに効率的に適応できるポリシーを学習する。
論文 参考訳(メタデータ) (2022-06-27T06:35:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。