論文の概要: A Review of Prominent Paradigms for LLM-Based Agents: Tool Use (Including RAG), Planning, and Feedback Learning
- arxiv url: http://arxiv.org/abs/2406.05804v5
- Date: Thu, 24 Oct 2024 07:07:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:52:15.717339
- Title: A Review of Prominent Paradigms for LLM-Based Agents: Tool Use (Including RAG), Planning, and Feedback Learning
- Title(参考訳): LLMエージェントの代表的なパラダイム:ツール利用(RAGを含む)、計画、フィードバック学習
- Authors: Xinzhe Li,
- Abstract要約: ツールの使用、計画、フィードバック学習は、現在、LLM(Large Language Model)ベースのエージェントを開発するための3つの重要なパラダイムである。
この調査では、これらのフレームワークを体系的にレビューし、議論するための統合された分類法を導入している。
- 参考スコア(独自算出の注目度): 0.6247103460512108
- License:
- Abstract: Tool use, planning, and feedback learning are currently three prominent paradigms for developing Large Language Model (LLM)-based agents across various tasks. Although numerous frameworks have been devised for each paradigm, their intricate workflows and inconsistent taxonomy create challenges in understanding and reviewing the frameworks across different paradigms. This survey introduces a unified taxonomy to systematically review and discuss these frameworks. Specifically, 1) the taxonomy defines environments/tasks, common LLM-profiled roles or LMPRs (policy models, evaluators, and dynamic models), and universally applicable workflows found in prior work, and 2) it enables a comparison of key perspectives on the implementations of LMPRs and workflow designs across different agent paradigms and frameworks. 3) Finally, we identify three limitations in existing workflow designs and systematically discuss the future work. Resources have been made publicly available at in our GitHub repository https://github.com/xinzhel/LLM-Agent-Survey.
- Abstract(参考訳): ツールの使用、計画、フィードバック学習は、様々なタスクにわたるLarge Language Model (LLM)ベースのエージェントを開発するための3つの重要なパラダイムである。
それぞれのパラダイムに多くのフレームワークが考案されているが、それらの複雑なワークフローと一貫性のない分類は、異なるパラダイムにわたるフレームワークの理解とレビューの課題を生み出している。
この調査では、これらのフレームワークを体系的にレビューし、議論するための統合された分類法を導入している。
具体的には
1) 分類学は、環境・タスク、LLMに代表される一般的な役割、あるいはLMPR(政治モデル、評価者、動的モデル)、及び先行作業で見られる普遍的に適用可能なワークフローを定義している。
2) 異なるエージェントパラダイムとフレームワークにわたるLMPRとワークフロー設計の実装に関する重要な視点の比較を可能にする。
最後に、既存のワークフロー設計における3つの制限を特定し、今後の作業について体系的に議論する。
リソースはGitHubリポジトリhttps://github.com/xinzhel/LLM-Agent-Surveyで公開されています。
関連論文リスト
- Benchmarking Agentic Workflow Generation [80.74757493266057]
複数面シナリオと複雑なグラフワークフロー構造を備えた統合ワークフロー生成ベンチマークであるWorFBenchを紹介する。
また,サブシーケンスとサブグラフマッチングアルゴリズムを利用したシステム評価プロトコルWorFEvalを提案する。
我々は、生成されたタスクが下流のタスクを強化し、推論中により少ない時間で優れたパフォーマンスを達成することができることを観察する。
論文 参考訳(メタデータ) (2024-10-10T12:41:19Z) - Agents in Software Engineering: Survey, Landscape, and Vision [46.021478509599895]
大規模言語モデル(LLM)は目覚ましい成功を収め、下流の様々なタスクで広く使われてきた。
LLMとソフトウェア工学(SE)を組み合わせた多くの研究では、明示的にも暗黙的にもエージェントの概念が採用されている。
本稿では,知覚,記憶,行動の3つの重要なモジュールを含む,SE における LLM ベースのエージェントのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-13T17:55:58Z) - On the Transformations across Reward Model, Parameter Update, and In-Context Prompt [83.48364984314127]
本稿では,パラメータ更新,報酬モデリング,コンテキスト内プロンプトという,一般的な3つの適応ツールの互換性を示す。
我々の研究は、既存の多くの研究を統一し、潜在的研究の方向性を示唆する総合的な見解を提供する。
論文 参考訳(メタデータ) (2024-06-24T07:42:32Z) - R-Eval: A Unified Toolkit for Evaluating Domain Knowledge of Retrieval Augmented Large Language Models [51.468732121824125]
大規模言語モデルは一般的なNLPタスクにおいて顕著な成功を収めてきたが、ドメイン固有の問題には不足する可能性がある。
既存の評価ツールは、ドメイン知識の深さを掘り下げることなく、いくつかのベースラインを提供し、様々なドメインで評価するのみである。
本稿では、R-Evalツールキット(R-Evalツールキット)を導入し、異なるRAGの評価を合理化することによるALLMの評価の課題に対処する。
論文 参考訳(メタデータ) (2024-06-17T15:59:49Z) - A Survey on the Memory Mechanism of Large Language Model based Agents [66.4963345269611]
大規模言語モデル(LLM)に基づくエージェントは、最近、研究や産業コミュニティから多くの注目を集めている。
LLMベースのエージェントは、現実の問題を解決する基礎となる自己進化能力に特徴付けられる。
エージェント-環境相互作用をサポートする重要なコンポーネントは、エージェントのメモリである。
論文 参考訳(メタデータ) (2024-04-21T01:49:46Z) - SymbolicAI: A framework for logic-based approaches combining generative models and solvers [9.841285581456722]
生成過程における概念学習とフロー管理に論理的アプローチを取り入れた,汎用的でモジュール化されたフレームワークであるSybolicAIを紹介する。
我々は,大規模言語モデル(LLM)を,自然言語命令と形式言語命令の両方に基づいてタスクを実行する意味的解決器として扱う。
論文 参考訳(メタデータ) (2024-02-01T18:50:50Z) - Improving Planning with Large Language Models: A Modular Agentic Architecture [7.63815864256878]
大規模言語モデル(LLM)は、多段階の推論や目標指向の計画を必要とするタスクに悩まされることが多い。
本稿では,特殊モジュールの反復的相互作用によって計画が達成されるエージェントアーキテクチャ,MAPを提案する。
MAPは両方の標準LLM法よりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2023-09-30T00:10:14Z) - Learning Robust State Abstractions for Hidden-Parameter Block MDPs [55.31018404591743]
我々は、ブロックMDPにインスパイアされた堅牢な状態抽象化を実現するために、HiP-MDP設定からの共通構造の概念を活用する。
マルチタスク強化学習 (MTRL) とメタ強化学習 (Meta-RL) の両方のための新しいフレームワークのインスタンス化を導出する。
論文 参考訳(メタデータ) (2020-07-14T17:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。