論文の概要: RE-GAINS & EnChAnT: Intelligent Tool Manipulation Systems For Enhanced Query Responses
- arxiv url: http://arxiv.org/abs/2401.15724v3
- Date: Thu, 20 Jun 2024 10:47:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-22 05:38:47.899797
- Title: RE-GAINS & EnChAnT: Intelligent Tool Manipulation Systems For Enhanced Query Responses
- Title(参考訳): RE-GAINS & EnChAnT: クエリ応答強化のためのインテリジェントツール操作システム
- Authors: Sahil Girhepuje, Siva Sankar Sajeev, Purvam Jain, Arya Sikder, Adithya Rama Varma, Ryan George, Akshay Govind Srinivasan, Mahendra Kurup, Ashmit Sinha, Sudip Mondal,
- Abstract要約: 大規模言語モデル(LLM)は現在、ツールの実行とチェーンに苦労している。
本稿では,LEMに複雑なユーザクエリに対処するための2つの新しいフレームワークであるRE-GAINSとEnChAnTを提案する。
- 参考スコア(独自算出の注目度): 1.002580651887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) currently struggle with tool invocation and chaining, as they often hallucinate or miss essential steps in a sequence. We propose RE-GAINS and EnChAnT, two novel frameworks that empower LLMs to tackle complex user queries by making API calls to external tools based on tool descriptions and argument lists. Tools are chained based on the expected output, without receiving the actual results from each individual call. EnChAnT, an open-source solution, leverages an LLM format enforcer, OpenChat 3.5 (an LLM), and ToolBench's API Retriever. RE-GAINS utilizes OpenAI models and embeddings with a specialized prompt based on the $\underline{R}$easoning vi$\underline{a}$ $\underline{P}$lanning $(RAP)$ framework. Both frameworks are low cost (0.01\$ per query). Our key contribution is enabling LLMs for tool invocation and chaining using modifiable, externally described tools.
- Abstract(参考訳): 大規模言語モデル(LLM)は現在、ツールの実行と連鎖に苦慮している。
本稿では,RE-GAINSとEnChAnTという2つの新しいフレームワークを提案する。
ツールは、個々の呼び出しから実際の結果を受け取ることなく、期待される出力に基づいてチェーンされる。
オープンソースのソリューションであるEnChAnTは、LLMフォーマットインクルーサ、OpenChat 3.5(LLM)、ToolBenchのAPI Retrieverを利用している。
RE-GAINSはOpenAIモデルと埋め込みを利用し、$\underline{R}$easoning vi$\underline{a}$$$\underline{P}$lanning $(RAP)$ frameworkをベースにした特別なプロンプトを持つ。
どちらのフレームワークも低コスト(クエリ毎に0.01\$)である。
私たちの重要な貢献は、変更可能な外部記述ツールを使用して、ツール呼び出しとチェーンのためのLLMを可能にすることです。
関連論文リスト
- Grounding by Trying: LLMs with Reinforcement Learning-Enhanced Retrieval [55.63711219190506]
大きな言語モデル(LLM)は、しばしば適切な検索クエリのポーズに苦労する。
私たちは$underlineLe$arningを$underlineRe$trieveに$underlineT$rying (LeReT)を導入します。
LeReTは、絶対精度を最大29%向上し、下流ジェネレータの評価を17%向上させることができる。
論文 参考訳(メタデータ) (2024-10-30T17:02:54Z) - Refiner: Restructure Retrieval Content Efficiently to Advance Question-Answering Capabilities [30.1331670544648]
大規模言語モデル(LLM)はパラメトリックな知識によって制限され、知識集約的なタスクに幻覚をもたらす。
我々は、RAGの検索後のプロセスで機能するエンドツーエンドの抽出・再構成パラダイムである$textitRefiner$を提案する。
論文 参考訳(メタデータ) (2024-06-17T09:25:10Z) - Let Me Do It For You: Towards LLM Empowered Recommendation via Tool Learning [57.523454568002144]
大きな言語モデル(LLM)は、常識的な推論と外部ツールの活用の能力を示している。
ツール学習を通じてLLMを活用したレコメンデーションのためのフレームワークであるToolRecを紹介する。
属性の粒度を探索するプロセスとして推薦プロセスを定式化する。
属性指向ツールには,ランクツールと検索ツールの2種類がある。
論文 参考訳(メタデータ) (2024-05-24T00:06:54Z) - Efficient Tool Use with Chain-of-Abstraction Reasoning [65.18096363216574]
大規模言語モデル(LLM)は、現実世界の知識に対する推論の基礎となる必要がある。
マルチステップ推論問題におけるツールの実行には,微調整LDMエージェントの課題が残されている。
マルチステップ推論におけるツールの活用方法として, LLM の新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-30T21:53:30Z) - EASYTOOL: Enhancing LLM-based Agents with Concise Tool Instruction [56.02100384015907]
EasyToolは、多種多様で長いツールドキュメントを統一的で簡潔なツール命令に変換するフレームワークである。
トークン使用量を大幅に削減し、現実のシナリオにおけるツール利用のパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2024-01-11T15:45:11Z) - Reverse Chain: A Generic-Rule for LLMs to Master Multi-API Planning [8.96245399645571]
本稿では,制御可能なターゲット駆動型アプローチであるReverse Chain'を紹介し,プロンプトのみで外部APIを操作可能な大規模言語モデルを提案する。
制御可能な多機能呼び出しを管理するために、Reverse Chainは、後方推論プロセスに基づいたジェネリックルールを採用する。
論文 参考訳(メタデータ) (2023-10-06T05:20:18Z) - ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world
APIs [104.37772295581088]
オープンソースの大規模言語モデル(LLM)、例えばLLaMAは、ツール使用能力に大きく制限されている。
データ構築、モデルトレーニング、評価を含む汎用ツールであるToolLLMを紹介する。
ツール使用のためのインストラクションチューニングフレームワークであるToolBenchを,ChatGPTを使って自動構築する。
論文 参考訳(メタデータ) (2023-07-31T15:56:53Z) - ToolkenGPT: Augmenting Frozen Language Models with Massive Tools via
Tool Embeddings [25.5476046472217]
大規模な言語モデルを外部ツールで拡張することは、複雑な問題を解決するための有望なアプローチとして現れている。
最近のインコンテキスト学習パラダイムはこれらの問題を緩和するが、制限されたコンテキスト長はいくつかのデモのみを可能にする。
我々は、両者の利点を組み合わせた代替アプローチである$textbfToolkenGPT$を提案する。
論文 参考訳(メタデータ) (2023-05-19T09:54:21Z) - API-Bank: A Comprehensive Benchmark for Tool-Augmented LLMs [84.45284695156771]
API-Bankは、ツール強化された大規模言語モデルのための画期的なベンチマークである。
73のAPIツールからなる実行評価システムを開発した。
我々は、1,000の異なるドメインにまたがる2,138のAPIから1,888のツール使用対話を含む総合的なトレーニングセットを構築した。
論文 参考訳(メタデータ) (2023-04-14T14:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。