論文の概要: Procedural Knowledge Improves Agentic LLM Workflows
- arxiv url: http://arxiv.org/abs/2511.07568v1
- Date: Wed, 12 Nov 2025 01:04:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.386747
- Title: Procedural Knowledge Improves Agentic LLM Workflows
- Title(参考訳): 手続き的知識がエージェントLLMワークフローを改善する
- Authors: Vincent Hsiao, Mark Roberts, Leslie Smith,
- Abstract要約: 大規模言語モデル(LLM)は、実質的なツールサポート、prom-ptエンジニアリング、微調整なしでエージェントタスクを実行する際にしばしば苦労する。
階層型タスクネットワーク(HTN)の形式で手続き的知識を活用するエージェントLLMワークフローを形式化し、実装し、評価する。
実験の結果,手書きHTNはエージェントタスクにおけるLLM性能を劇的に向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 0.5161531917413708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) often struggle when performing agentic tasks without substantial tool support, prom-pt engineering, or fine tuning. Despite research showing that domain-dependent, procedural knowledge can dramatically increase planning efficiency, little work evaluates its potential for improving LLM performance on agentic tasks that may require implicit planning. We formalize, implement, and evaluate an agentic LLM workflow that leverages procedural knowledge in the form of a hierarchical task network (HTN). Empirical results of our implementation show that hand-coded HTNs can dramatically improve LLM performance on agentic tasks, and using HTNs can boost a 20b or 70b parameter LLM to outperform a much larger 120b parameter LLM baseline. Furthermore, LLM-created HTNs improve overall performance, though less so. The results suggest that leveraging expertise--from humans, documents, or LLMs--to curate procedural knowledge will become another important tool for improving LLM workflows.
- Abstract(参考訳): 大規模言語モデル(LLM)は、実質的なツールサポート、prom-ptエンジニアリング、微調整なしでエージェントタスクを実行する際にしばしば苦労する。
ドメインに依存した手続き的知識が計画の効率を劇的に向上させるという研究にもかかわらず、暗黙の計画を必要とするエージェントタスクにおけるLLMのパフォーマンス向上の可能性を評価する研究はほとんどない。
階層型タスクネットワーク(HTN)の形式で手続き的知識を活用するエージェントLLMワークフローを形式化し,実装し,評価する。
実験の結果,手書きHTNはエージェントタスクのLLM性能を劇的に向上させ,HTNは20bまたは70bパラメータのLLMを増強し,より大きな120bパラメータのLLMベースラインを上回り得ることがわかった。
さらに、LLMで作成したHTNは全体的な性能を向上するが、そうはならない。
この結果は、人、文書、LLMから専門知識を活用することで、手続き的知識をキュレートし、LLMワークフローを改善するための重要なツールとなることを示唆している。
関連論文リスト
- How Many Parameters Does Your Task Really Need? Task Specific Pruning with LLM-Sieve [2.33361323991006]
大きな言語モデル(LLM)は、リソース制約された設定において、狭いタスクのためにますますデプロイされる。
LLM-Sieveは,タスク性能の維持に必要な最小パラメータサブセットにLCMを適用可能なフレームワークである。
論文 参考訳(メタデータ) (2025-05-23T20:17:20Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [68.29746557968107]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - Enhancing the General Agent Capabilities of Low-Parameter LLMs through Tuning and Multi-Branch Reasoning [56.82041895921434]
オープンソースの事前訓練された大規模言語モデル(LLM)は、強力な言語理解と生成能力を示す。
現実世界の複雑な問題に対処するエージェントとして使用される場合、ChatGPTやGPT-4のような大型の商用モデルに比べてパフォーマンスははるかに劣る。
論文 参考訳(メタデータ) (2024-03-29T03:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。