論文の概要: Reverse Chain: A Generic-Rule for LLMs to Master Multi-API Planning
- arxiv url: http://arxiv.org/abs/2310.04474v1
- Date: Tue, 10 Oct 2023 03:42:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 18:18:33.042557
- Title: Reverse Chain: A Generic-Rule for LLMs to Master Multi-API Planning
- Title(参考訳): reverse chain: llmsがマルチapiプランニングをマスタするジェネリックルール
- Authors: Yinger Zhang, Hui Cai, Yicheng Chen, Rui Sun, Jing Zheng
- Abstract要約: 本稿では,リバースチェイン(Reverse Chain)と呼ばれる目標駆動型アプローチを提案する。
様々な実験は、複数の関数呼び出しを実装する上で、Reverse Chainの印象的な能力を示している。
- 参考スコア(独自算出の注目度): 9.615332509026011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While enabling large language models to implement function calling (known as
APIs) can greatly enhance the performance of LLMs, function calling is still a
challenging task due to the complicated relations between different APIs,
especially in a context-learning setting without fine-tuning. This paper
proposes a simple yet controllable target-driven approach called Reverse Chain
to empower LLMs with capabilities to use external APIs with only prompts. Given
that most open-source LLMs have limited tool-use or tool-plan capabilities,
LLMs in Reverse Chain are only employed to implement simple tasks, e.g., API
selection and argument completion, and a generic rule is employed to implement
a controllable multiple functions calling. In this generic rule, after
selecting a final API to handle a given task via LLMs, we first ask LLMs to
fill the required arguments from user query and context. Some missing arguments
could be further completed by letting LLMs select another API based on API
description before asking user. This process continues until a given task is
completed. Extensive numerical experiments indicate an impressive capability of
Reverse Chain on implementing multiple function calling. Interestingly enough,
the experiments also reveal that tool-use capabilities of the existing LLMs,
e.g., ChatGPT, can be greatly improved via Reverse Chain.
- Abstract(参考訳): 大きな言語モデルで関数呼び出し(apiとして知られる)を実装することで、llmのパフォーマンスが大幅に向上する一方で、関数呼び出しは、特に微調整のないコンテキスト学習設定において、異なるapi間の複雑な関係のため、依然として困難なタスクである。
本稿では,プロンプトのみを使用した外部api使用能力を持つllmに,リバースチェーン(reverse chain)という,シンプルかつ制御可能なターゲット駆動アプローチを提案する。
ほとんどのオープンソース LLM はツール使用やツールプランの機能に制限があるため、Reverse Chain の LLM は API の選択や引数の補完といった単純なタスクの実装にのみ使用される。
この一般的なルールでは、LLMを通して与えられたタスクを処理するための最終的なAPIを選択した後、まずLLMにユーザクエリとコンテキストから必要な引数を埋めるように要求する。
ユーザを尋ねる前に、API記述に基づいてLLMが別のAPIを選択することができる。
このプロセスは、あるタスクが完了するまで続く。
広範な数値実験は、複数の関数呼び出しを実装する際のリバースチェーンの素晴らしい能力を示している。
興味深いことに、実験では既存のLLM(例えばChatGPT)のツール使用能力がReverse Chainを通じて大幅に改善できることも明らかにした。
関連論文リスト
- LLM-AutoDiff: Auto-Differentiate Any LLM Workflow [58.56731133392544]
自動プロンプト工学(APE)のための新しいフレームワーク LLM-AutoDiff について紹介する。
LLMs-AutoDiffは、各テキスト入力をトレーニング可能なパラメータとして扱い、フリーズした後方エンジンを使用して、テキスト勾配に対するフィードバック・アキンを生成する。
精度とトレーニングコストの両方において、既存のテキスト勾配ベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-01-28T03:18:48Z) - ExploraCoder: Advancing code generation for multiple unseen APIs via planning and chained exploration [70.26807758443675]
ExploraCoderはトレーニング不要のフレームワークで、大規模な言語モデルにコードソリューションで見えないAPIを呼び出す権限を与える。
ExploraCoderは,事前のAPI知識を欠いたモデルのパフォーマンスを著しく向上させ,NAGアプローチの11.24%,pass@10の事前トレーニングメソッドの14.07%を絶対的に向上させることを示す。
論文 参考訳(メタデータ) (2024-12-06T19:00:15Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Plan with Code: Comparing approaches for robust NL to DSL generation [0.0]
コードのプランニングは多くのオーケストレーションタスクにおいて、より信頼性の高いアプローチだと考えられている。
本稿では,タスクプランニングの特別事例として,RPA(Robotic Process Automation)領域におけるワークフローの自動化に焦点を当てる。
論文 参考訳(メタデータ) (2024-08-15T04:29:33Z) - LLM+Reasoning+Planning for Supporting Incomplete User Queries in Presence of APIs [0.09374652839580183]
実際には、自然言語のタスク要求(ユーザクエリ)は不完全であることが多い。
大きな言語モデル(LLM)は自然言語処理(NLP)タスクに優れていますが、欠落した情報やAPIのオーケストレーションに苦慮することが多いのです。
論文 参考訳(メタデータ) (2024-05-21T01:16:34Z) - An LLM-Tool Compiler for Fused Parallel Function Calling [1.990293258268139]
LLM(Large Language Models)における最先端のシーケンシャル推論は、会話タスク以外のCopilotの機能を複雑な関数呼び出しに拡張した。
LLM-Toolコンパイラは、実行時に単一の関数の下で同様のツール操作を融合し、LLMに統一的なタスクとして提示する。
大規模なCopilotプラットフォーム上でベンチマークされたLLM-Toolコンパイラは、既存のメソッドよりも最大4倍の並列呼び出しを実現し、トークンコストとレイテンシを最大40%と12%削減する。
論文 参考訳(メタデータ) (2024-05-07T18:55:50Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Allies: Prompting Large Language Model with Beam Search [107.38790111856761]
本研究では,ALIESと呼ばれる新しい手法を提案する。
入力クエリが与えられた場合、ALLIESはLLMを活用して、元のクエリに関連する新しいクエリを反復的に生成する。
元のクエリのスコープを反復的に精錬して拡張することにより、ALLIESは直接検索できない隠れた知識をキャプチャし、利用する。
論文 参考訳(メタデータ) (2023-05-24T06:16:44Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。