論文の概要: Dynamic System Instructions and Tool Exposure for Efficient Agentic LLMs
- arxiv url: http://arxiv.org/abs/2602.17046v1
- Date: Mon, 01 Dec 2025 06:43:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.709536
- Title: Dynamic System Instructions and Tool Exposure for Efficient Agentic LLMs
- Title(参考訳): 効率的なエージェントLDMのための動的システム命令とツール露光
- Authors: Uria Franko,
- Abstract要約: 大きな言語モデル(LLM)エージェントは、長いシステム命令と大きなツールカタログを毎回繰り返しながら、多くのステップで実行されることが多い。
Instruction-Tool Retrieval (ITR)は,段階ごとに最小限のシステムプロンプトフラグメントと最小限のツールサブセットを検索するRAG変異体である。
ITRはステップ単位のコンテキストトークンを95%削減し、適切なツールルーティングを32%改善し、エンドツーエンドのエピソードコストをモノリシックベースラインに対して70%削減する。
- 参考スコア(独自算出の注目度): 1.2691047660244335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Model (LLM) agents often run for many steps while re-ingesting long system instructions and large tool catalogs each turn. This increases cost, agent derailment probability, latency, and tool-selection errors. We propose Instruction-Tool Retrieval (ITR), a RAG variant that retrieves, per step, only the minimal system-prompt fragments and the smallest necessary subset of tools. ITR composes a dynamic runtime system prompt and exposes a narrowed toolset with confidence-gated fallbacks. Using a controlled benchmark with internally consistent numbers, ITR reduces per-step context tokens by 95%, improves correct tool routing by 32% relative, and cuts end-to-end episode cost by 70% versus a monolithic baseline. These savings enable agents to run 2-20x more loops within context limits. Savings compound with the number of agent steps, making ITR particularly valuable for long-running autonomous agents. We detail the method, evaluation protocol, ablations, and operational guidance for practical deployment.
- Abstract(参考訳): 大きな言語モデル(LLM)エージェントは、長いシステム命令と大きなツールカタログを毎回繰り返しながら、多くのステップで実行されることが多い。
これにより、コスト、エージェントの脱線確率、レイテンシ、ツール選択エラーが増加する。
Instruction-Tool Retrieval (ITR)は,段階ごとに最小限のシステムプロンプトフラグメントと最小限のツールサブセットを検索するRAG変異体である。
ITRは動的ランタイムシステムプロンプトを構成し、信頼性の高いフォールバックを備えた狭いツールセットを公開する。
内部的に一貫した数値を持つ制御されたベンチマークを使用して、ITRはステップ単位のコンテキストトークンを95%削減し、適切なツールルーティングを32%改善し、エンドツーエンドのエピソードコストをモノリシックなベースラインに対して70%削減する。
これらのセーブにより、エージェントはコンテキスト制限内で2~20倍のループを実行できる。
貯蓄は、エージェントステップの数と重なり、ITRは特に長期にわたる自律エージェントにとって価値のあるものとなる。
本報告では, 本手法, 評価プロトコル, 改善策, 運用指針について詳述する。
関連論文リスト
- Helpful to a Fault: Measuring Illicit Assistance in Multi-Turn, Multilingual LLM Agents [35.76774274440008]
STING(Sequential Testing of Illicit N-step Goal execution)は、自動化された再チームのフレームワークである。
良質なペルソナに接地されたステップバイステップの不正計画を構築し、適応的なフォローアップでターゲットエージェントを反復的にプローブする。
本稿では,マルチターン・リピートをタイム・ツー・ファースト・ジェイルブレイク確率変数としてモデル化する分析フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-18T10:31:19Z) - DLLM Agent: See Farther, Run Faster [94.74432470237817]
拡散大言語モデル(DLLM)は、自己回帰(AR)デコーディングの代替として、魅力的な効率とモデリング特性を持つ。
我々は、DLLMとARのバックボーンを同一のエージェントワークフロー内でインスタンス化することで、制御された環境でこれを研究する。
DLLMエージェントはARエージェントよりも平均30%以上速く、場合によっては8倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2026-02-07T09:01:18Z) - Optimizing Agentic Workflows using Meta-tools [3.3298825663516403]
Agentic AIは、LLMが複雑なタスクを解決するためのツールを動的に推論し、計画し、相互作用することを可能にする。
この作業では、冗長なツール実行パターンを特定し、最適化するフレームワークであるAWO(Agent Optimization)を導入している。
AWO は LLM の呼び出し回数を 11.9% まで削減し、タスク成功率を 4.2% まで引き上げている。
論文 参考訳(メタデータ) (2026-01-29T17:43:08Z) - Multi-Agent Tool-Integrated Policy Optimization [67.12841355267678]
大規模言語モデル(LLM)は、知識集約的かつ複雑な推論タスクに対して、多ターンツール統合計画にますます依存している。
既存の実装は通常、単一のエージェントに依存するが、コンテキスト長とノイズの多いツールレスポンスに悩まされる。
ツール統合マルチエージェントフレームワークの効果的な強化学習をサポートする方法はない。
論文 参考訳(メタデータ) (2025-10-06T10:44:04Z) - RCR-Router: Efficient Role-Aware Context Routing for Multi-Agent LLM Systems with Structured Memory [57.449129198822476]
RCRは、マルチエージェント大言語モデル(LLM)システムのためのロールアウェアコンテキストルーティングフレームワークである。
役割とタスクステージに基づいて、各エージェントに対して意味的に関連するメモリサブセットを動的に選択する。
軽量スコアリングポリシは、メモリ選択をガイドし、エージェント出力を共有メモリストアに統合する。
論文 参考訳(メタデータ) (2025-08-06T21:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。