論文の概要: RE-GAINS & EnCHANT: Intelligent Tool Manipulation Systems For Enhanced
Query Responses
- arxiv url: http://arxiv.org/abs/2401.15724v1
- Date: Sun, 28 Jan 2024 18:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 16:50:38.385914
- Title: RE-GAINS & EnCHANT: Intelligent Tool Manipulation Systems For Enhanced
Query Responses
- Title(参考訳): RE-GAINS & EnCHANT: クエリ応答強化のためのインテリジェントツール操作システム
- Authors: Sahil Girhepuje, Siva Sankar Sajeev, Purvam Jain, Arya Sikder, Adithya
Rama Varma, Ryan George, Akshay Govind Srinivasan, Mahendra Kurup, Ashmit
Sinha, Sudip Mondal
- Abstract要約: 本稿では,RE-GAINSとEnCHANTの2つの新しいフレームワークを提案する。
Re-GAINSはOpenAIモデルと組み込みに基づいており、RAP論文に基づいた特別なプロンプトを使用している。
EnCHANTはオープンソースのソリューションで、LLMフォーマットの強制器、LLM(OpenChat 3.5)およびレトリバーを利用する。
- 参考スコア(独自算出の注目度): 1.035939701642165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the remarkable success of LLMs, they still suffer from tool
invocation and tool chaining due to inadequate input queries and/or tool
argument descriptions. We propose two novel frameworks, RE-GAINS and EnCHANT,
enabling LLMs to tackle tool manipulation for solving complex user queries by
making API calls. EnCHANT is an open-source solution that makes use of an LLM
format enforcer, an LLM(OpenChat 3.5) and a retriever(ToolBench's API
Retriever). RE-GAINS is based on OpenAI models and embeddings using a special
prompt based on the RAP paper. Both solutions cost less than $0.01 per query
with minimal latency, therefore showcasing the usefulness of the frameworks.
- Abstract(参考訳): LLMの顕著な成功にもかかわらず、入力クエリやツール引数の記述が不十分なため、ツール呼び出しやツールチェーンに悩まされている。
llmがapi呼び出しによって複雑なユーザクエリを解決するためのツール操作に取り組めるように,re-gainsとenchantという2つの新しいフレームワークを提案する。
EnCHANTはオープンソースのソリューションで、LLMフォーマットインクルーダー、LLM(OpenChat 3.5)、レトリバー(ToolBenchのAPI Retriever)を利用している。
RE-GAINSはOpenAIモデルと組み込みに基づいており、RAP論文に基づいた特別なプロンプトを使用している。
どちらのソリューションもクエリ毎に0.01ドル以下でレイテンシが最小で、フレームワークの有用性を示している。
関連論文リスト
- ERATTA: Extreme RAG for Table To Answers with Large Language Models [1.3318204310917532]
大規模言語モデル(LLM)は、拡張型AIソリューションに最適な選択肢である。
本研究では,データ認証,ユーザクエリルーティング,データ検索,質問応答機能のためのカスタムプロンプトを実現するために,複数のLSMを起動可能なLLMベースのユニークなシステムを提案する。
論文 参考訳(メタデータ) (2024-05-07T02:49:59Z) - Efficient Tool Use with Chain-of-Abstraction Reasoning [65.18096363216574]
大規模言語モデル(LLM)は、現実世界の知識に対する推論の基礎となる必要がある。
マルチステップ推論問題におけるツールの実行には,微調整LDMエージェントの課題が残されている。
マルチステップ推論におけるツールの活用方法として, LLM の新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-30T21:53:30Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z) - LLM Guided Inductive Inference for Solving Compositional Problems [1.6727879968475368]
大規模言語モデル (LLM) は質問応答タスクにおいて顕著な性能を示した。
既存のメソッドは、順次呼び出されたモジュールを使って推論タスクを分解する。
本稿では,オープンワールドで深い推論処理を行うRecursion based LLM (REBEL)を提案する。
論文 参考訳(メタデータ) (2023-09-20T23:44:16Z) - ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world
APIs [104.37772295581088]
オープンソースの大規模言語モデル(LLM)、例えばLLaMAは、ツール使用能力に大きく制限されている。
データ構築、モデルトレーニング、評価を含む汎用ツールであるToolLLMを紹介する。
ツール使用のためのインストラクションチューニングフレームワークであるToolBenchを,ChatGPTを使って自動構築する。
論文 参考訳(メタデータ) (2023-07-31T15:56:53Z) - Allies: Prompting Large Language Model with Beam Search [107.38790111856761]
本研究では,ALIESと呼ばれる新しい手法を提案する。
入力クエリが与えられた場合、ALLIESはLLMを活用して、元のクエリに関連する新しいクエリを反復的に生成する。
元のクエリのスコープを反復的に精錬して拡張することにより、ALLIESは直接検索できない隠れた知識をキャプチャし、利用する。
論文 参考訳(メタデータ) (2023-05-24T06:16:44Z) - Large Language Models are Strong Zero-Shot Retriever [89.16756291653371]
ゼロショットシナリオにおける大規模検索に大規模言語モデル(LLM)を適用するための簡単な手法を提案する。
我々の手法であるRetriever(LameR)は,LLM以外のニューラルモデルに基づいて構築された言語モデルである。
論文 参考訳(メタデータ) (2023-04-27T14:45:55Z) - API-Bank: A Comprehensive Benchmark for Tool-Augmented LLMs [84.45284695156771]
API-Bankは、ツール強化された大規模言語モデルのための画期的なベンチマークである。
73のAPIツールからなる実行評価システムを開発した。
我々は、1,000の異なるドメインにまたがる2,138のAPIから1,888のツール使用対話を含む総合的なトレーニングセットを構築した。
論文 参考訳(メタデータ) (2023-04-14T14:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。