論文の概要: ProTIP: Progressive Tool Retrieval Improves Planning
- arxiv url: http://arxiv.org/abs/2312.10332v1
- Date: Sat, 16 Dec 2023 05:43:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 17:18:03.363665
- Title: ProTIP: Progressive Tool Retrieval Improves Planning
- Title(参考訳): ProTIP: プログレッシブツール検索が計画を改善する
- Authors: Raviteja Anantha, Bortik Bandyopadhyay, Anirudh Kashi, Sayantan
Mahinder, Andrew W Hill, Srinivas Chappidi
- Abstract要約: プログレッシブツール検索を計画改善(ProTIP)フレームワークに導入する。
ProTIPは、サブタスクラベルの明示的な要求なしに暗黙的にTDを実行すると同時に、サブタスク-ツール原子性も同時に維持する。
ToolBenchデータセットでは、ProTIPがChatGPTタスク分解ベースのアプローチよりも顕著なマージンで優れています。
- 参考スコア(独自算出の注目度): 14.386337505825228
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly employed for complex multi-step
planning tasks, where the tool retrieval (TR) step is crucial for achieving
successful outcomes. Two prevalent approaches for TR are single-step retrieval,
which utilizes the complete query, and sequential retrieval using task
decomposition (TD), where a full query is segmented into discrete atomic
subtasks. While single-step retrieval lacks the flexibility to handle
"inter-tool dependency," the TD approach necessitates maintaining "subtask-tool
atomicity alignment," as the toolbox can evolve dynamically. To address these
limitations, we introduce the Progressive Tool retrieval to Improve Planning
(ProTIP) framework. ProTIP is a lightweight, contrastive learning-based
framework that implicitly performs TD without the explicit requirement of
subtask labels, while simultaneously maintaining subtask-tool atomicity. On the
ToolBench dataset, ProTIP outperforms the ChatGPT task decomposition-based
approach by a remarkable margin, achieving a 24% improvement in Recall@K=10 for
TR and a 41% enhancement in tool accuracy for plan generation.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ツール検索(TR)ステップが成功の達成に不可欠である複雑な多段階計画タスクにますます採用されている。
trの2つの一般的なアプローチは、完全なクエリを利用するシングルステップ検索と、完全なクエリを個別のアトミックサブタスクに分割するタスク分解(td)を用いたシーケンシャル検索である。
シングルステップ検索は"インターツール依存性"を扱う柔軟性を欠いているが、tdアプローチではツールボックスが動的に進化できるため、"サブタスクとツールのアライメント"を維持する必要がある。
これらの制約に対処するために,Progressive Tool Search to Improve Planning (ProTIP)フレームワークを紹介する。
protipは、サブタスクラベルの明示的な必要なしに暗黙的にtdを実行する軽量でコントラストのある学習ベースのフレームワークである。
ToolBenchデータセットでは、ProTIPがChatGPTタスク分解ベースのアプローチを著しく上回り、TRのRecall@K=10が24%改善され、プラン生成のためのツール精度が41%向上した。
関連論文リスト
- StepTool: A Step-grained Reinforcement Learning Framework for Tool Learning in LLMs [44.906714156993694]
我々は,大規模言語モデルにおけるツール学習を改善するための,段階的な強化学習フレームワークであるStepToolを紹介する。
StepToolは、既存のメソッドを多段階のツールベースのタスクで大幅に上回っている。
論文 参考訳(メタデータ) (2024-10-10T09:23:26Z) - Data-Efficient Massive Tool Retrieval: A Reinforcement Learning Approach for Query-Tool Alignment with Language Models [28.67532617021655]
外部ツールやAPIと統合された大規模言語モデル(LLM)は、コンテキスト内学習や微調整によって複雑なタスクにうまく対応している。
この進歩にもかかわらず、厳密な入力長制約のため、ツール検索の大規模化は依然として困難である。
本稿では,大規模なツール検索(MTR)タスクとして,大規模リポジトリからの事前検索戦略を提案する。
論文 参考訳(メタデータ) (2024-10-04T07:58:05Z) - TART: An Open-Source Tool-Augmented Framework for Explainable Table-based Reasoning [61.14586098005874]
現在のLarge Language Models (LLM) は、テーブル構造を理解し、正確な数値推論を適用する能力に制限がある。
LLMと特殊なツールを統合するTART(Tool-Augmented Reasoning framework for Tables)を紹介した。
TARTには、正確なデータ表現を保証するテーブルフォーマッター、特定の計算ツールを開発するツールメーカー、説明可能性を維持するための説明ジェネレータの3つの重要なコンポーネントが含まれている。
論文 参考訳(メタデータ) (2024-09-18T06:19:59Z) - Re-Invoke: Tool Invocation Rewriting for Zero-Shot Tool Retrieval [47.81307125613145]
Re-Invokeは、トレーニングなしで大規模ツールセットに効果的にスケールするために設計された教師なしツール検索手法である。
我々は、クエリ毎に最も関連性の高いツールを特定するために、意図に基づいて、新しいマルチビュー類似度ランキング戦略を採用する。
評価の結果、Re-Invokeはシングルツールとマルチツールの両方のシナリオにおいて、最先端の代替よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-08-03T22:49:27Z) - Context Tuning for Retrieval Augmented Generation [1.201626478128059]
本稿では、スマートコンテキスト検索システムを用いて関連する情報を取得するRAGのためのコンテキストチューニングを提案する。
実験の結果,文脈調整が意味探索を著しく促進することが示された。
また,Reciprocal Rank Fusion (RRF) とMARTを用いた軽量モデルでは,GPT-4に基づく検索よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-09T23:33:16Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - ADaPT: As-Needed Decomposition and Planning with Language Models [131.063805299796]
As-Needed Decomposition and Planning for Complex Tasks (ADaPT)について紹介する。
ADaPTは、Large Language Modelsがそれらを実行できない場合、複雑なサブタスクを明示的に計画し、分解する。
以上の結果から,ADaPTは強いベースラインを確立した。
論文 参考訳(メタデータ) (2023-11-08T17:59:15Z) - ART: Automatic multi-step reasoning and tool-use for large language
models [105.57550426609396]
大規模言語モデル(LLM)は、数秒とゼロショットの設定で複雑な推論を行うことができる。
各推論ステップは、コアLLM機能を超えて計算をサポートする外部ツールに依存することができる。
プログラムとして中間推論ステップを自動生成するために凍結LDMを使用するフレームワークであるART(Automatic Reasoning and Tool-use)を導入する。
論文 参考訳(メタデータ) (2023-03-16T01:04:45Z) - Meta Reinforcement Learning with Autonomous Inference of Subtask
Dependencies [57.27944046925876]
本稿では,タスクがサブタスクグラフによって特徴づけられるような,新しい数発のRL問題を提案し,対処する。
メタ政治を直接学習する代わりに、Subtask Graph Inferenceを使ったメタラーナーを開発した。
実験の結果,2つのグリッドワールド領域とStarCraft II環境において,提案手法が潜在タスクパラメータを正確に推定できることが確認された。
論文 参考訳(メタデータ) (2020-01-01T17:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。