論文の概要: Reverse Chain: A Generic-Rule for LLMs to Master Multi-API Planning
- arxiv url: http://arxiv.org/abs/2310.04474v2
- Date: Tue, 10 Oct 2023 03:42:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 18:18:54.958518
- Title: Reverse Chain: A Generic-Rule for LLMs to Master Multi-API Planning
- Title(参考訳): reverse chain: llmsがマルチapiプランニングをマスタするジェネリックルール
- Authors: Yinger Zhang, Hui Cai, Yicheng Chen, Rui Sun, Jing Zheng
- Abstract要約: 本稿では,リバースチェイン(Reverse Chain)と呼ばれる目標駆動型アプローチを提案する。
様々な実験は、複数の関数呼び出しを実装する上で、Reverse Chainの印象的な能力を示している。
- 参考スコア(独自算出の注目度): 9.615332509026011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While enabling large language models to implement function calling (known as
APIs) can greatly enhance the performance of LLMs, function calling is still a
challenging task due to the complicated relations between different APIs,
especially in a context-learning setting without fine-tuning. This paper
proposes a simple yet controllable target-driven approach called Reverse Chain
to empower LLMs with capabilities to use external APIs with only prompts. Given
that most open-source LLMs have limited tool-use or tool-plan capabilities,
LLMs in Reverse Chain are only employed to implement simple tasks, e.g., API
selection and argument completion, and a generic rule is employed to implement
a controllable multiple functions calling. In this generic rule, after
selecting a final API to handle a given task via LLMs, we first ask LLMs to
fill the required arguments from user query and context. Some missing arguments
could be further completed by letting LLMs select another API based on API
description before asking user. This process continues until a given task is
completed. Extensive numerical experiments indicate an impressive capability of
Reverse Chain on implementing multiple function calling. Interestingly enough,
the experiments also reveal that tool-use capabilities of the existing LLMs,
e.g., ChatGPT, can be greatly improved via Reverse Chain.
- Abstract(参考訳): 大きな言語モデルで関数呼び出し(apiとして知られる)を実装することで、llmのパフォーマンスが大幅に向上する一方で、関数呼び出しは、特に微調整のないコンテキスト学習設定において、異なるapi間の複雑な関係のため、依然として困難なタスクである。
本稿では,プロンプトのみを使用した外部api使用能力を持つllmに,リバースチェーン(reverse chain)という,シンプルかつ制御可能なターゲット駆動アプローチを提案する。
ほとんどのオープンソース LLM はツール使用やツールプランの機能に制限があるため、Reverse Chain の LLM は API の選択や引数の補完といった単純なタスクの実装にのみ使用される。
この一般的なルールでは、LLMを通して与えられたタスクを処理するための最終的なAPIを選択した後、まずLLMにユーザクエリとコンテキストから必要な引数を埋めるように要求する。
ユーザを尋ねる前に、API記述に基づいてLLMが別のAPIを選択することができる。
このプロセスは、あるタスクが完了するまで続く。
広範な数値実験は、複数の関数呼び出しを実装する際のリバースチェーンの素晴らしい能力を示している。
興味深いことに、実験では既存のLLM(例えばChatGPT)のツール使用能力がReverse Chainを通じて大幅に改善できることも明らかにした。
関連論文リスト
- Reasoning on Efficient Knowledge Paths:Knowledge Graph Guides Large Language Model for Domain Question Answering [18.94220625114711]
大きな言語モデル(LLM)は驚くほどよく機能し、多くのタスクにおいて人間の専門家より優れています。
本稿では,LLMに基づいてKGから推論経路を選択するパイプラインを統合し,最適化する。
また,思考の連鎖(CoT)とページランクに基づく,シンプルで効果的なサブグラフ検索手法を提案する。
論文 参考訳(メタデータ) (2024-04-16T08:28:16Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - An LLM Compiler for Parallel Function Calling [71.4578671406412]
本稿では,複数の関数呼び出しを効率的にオーケストレーションするために並列に関数を実行するLLMCompilerを紹介する。
ReActと比較して、一貫したレイテンシの高速化が3.7倍、コストの削減が6.7倍、精度が9%向上している。
論文 参考訳(メタデータ) (2023-12-07T18:32:04Z) - PPTC Benchmark: Evaluating Large Language Models for PowerPoint Task
Completion [96.47420221442397]
我々はPowerPoint Task Completionベンチマークを導入し、大規模言語モデルがマルチターン・マルチモーダル命令を完了する能力を評価する。
また,ラベルAPIシーケンスではなく,予測ファイルに基づいてLCMが命令を終了するかどうかを評価するPTX-Match評価システムを提案する。
その結果、GPT-4はシングルターン対話テストにおいて75.1%の精度で他のLLMよりも優れていたが、セッション全体を完成させる際の課題に直面しており、セッションの精度は6%に過ぎなかった。
論文 参考訳(メタデータ) (2023-11-03T08:06:35Z) - AskIt: Unified Programming Interface for Programming with Large Language
Models [0.0]
大規模言語モデル(LLM)は創発能力として知られるユニークな現象を示し、多くのタスクにまたがって適応性を示す。
本稿では,LLM用に特別に設計されたドメイン固有言語であるAskItを紹介する。
50タスクにわたって、AskItは簡潔なプロンプトを生成し、ベンチマークよりも16.14パーセントのプロンプト長の削減を実現した。
論文 参考訳(メタデータ) (2023-08-29T21:44:27Z) - A Large Language Model Enhanced Conversational Recommender System [25.18571087071163]
会話推薦システム(CRS)は,対話インタフェースを通じて高品質なアイテムをユーザに推薦することを目的としている。
効果的なCRSを開発するには,1)サブタスクを適切に管理する方法,2)異なるサブタスクを効果的に解決する方法,3)ユーザと対話するレスポンスを正しく生成する方法,といった課題がある。
近年、Large Language Models (LLMs) は、より強力なCRSを開発する新たな機会として、推論と生成の先例のない能力を示した。
論文 参考訳(メタデータ) (2023-08-11T16:30:44Z) - Allies: Prompting Large Language Model with Beam Search [107.38790111856761]
本研究では,ALIESと呼ばれる新しい手法を提案する。
入力クエリが与えられた場合、ALLIESはLLMを活用して、元のクエリに関連する新しいクエリを反復的に生成する。
元のクエリのスコープを反復的に精錬して拡張することにより、ALLIESは直接検索できない隠れた知識をキャプチャし、利用する。
論文 参考訳(メタデータ) (2023-05-24T06:16:44Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。