論文の概要: Trajectory-Informed Memory Generation for Self-Improving Agent Systems
- arxiv url: http://arxiv.org/abs/2603.10600v1
- Date: Wed, 11 Mar 2026 09:54:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.887819
- Title: Trajectory-Informed Memory Generation for Self-Improving Agent Systems
- Title(参考訳): 自己改善エージェントシステムのためのトラジェクティブインフォームドメモリ生成
- Authors: Gaodan Fang, Vatche Isahagian, K. R. Jayaram, Ritesh Kumar, Vinod Muthusamy, Punleuk Oum, Gegi Thomas,
- Abstract要約: LLMを使用したエージェントは、実行経験から学び、将来のパフォーマンスを改善するという、永続的な課題に直面します。
本稿ではエージェント実行軌跡から実行可能な学習を自動的に抽出する新しいフレームワークを提案する。
本フレームワークは,実行パターンを理解し,前向きな構造化学習を抽出し,特定のタスクコンテキストに合わせたガイダンスを検索する。
- 参考スコア(独自算出の注目度): 4.933717407152962
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM-powered agents face a persistent challenge: learning from their execution experiences to improve future performance. While agents can successfully complete many tasks, they often repeat inefficient patterns, fail to recover from similar errors, and miss opportunities to apply successful strategies from past executions. We present a novel framework for automatically extracting actionable learnings from agent execution trajectories and utilizing them to improve future performance through contextual memory retrieval. Our approach comprises four components: (1) a Trajectory Intelligence Extractor that performs semantic analysis of agent reasoning patterns, (2) a Decision Attribution Analyzer that identifies which decisions and reasoning steps led to failures, recoveries, or inefficiencies, (3) a Contextual Learning Generator that produces three types of guidance -- strategy tips from successful patterns, recovery tips from failure handling, and optimization tips from inefficient but successful executions, and (4) an Adaptive Memory Retrieval System that injects relevant learnings into agent prompts based on multi-dimensional similarity. Unlike existing memory systems that store generic conversational facts, our framework understands execution patterns, extracts structured learnings with provenance, and retrieves guidance tailored to specific task contexts. Evaluation on the AppWorld benchmark demonstrates consistent improvements, with up to 14.3 percentage point gains in scenario goal completion on held-out tasks and particularly strong benefits on complex tasks (28.5~pp scenario goal improvement, a 149\% relative increase).
- Abstract(参考訳): LLMを使用したエージェントは、実行経験から学び、将来のパフォーマンスを改善するという、永続的な課題に直面します。
エージェントは多くのタスクをうまくこなすことができるが、しばしば非効率なパターンを繰り返し、同様のエラーから回復できず、過去の実行から成功した戦略を適用する機会を逃す。
本稿では,エージェント実行軌跡から行動可能な学習を自動的に抽出し,それを利用して文脈記憶検索による将来のパフォーマンスを向上させるための新しいフレームワークを提案する。
提案手法は,(1)エージェント推論パターンのセマンティック分析を行うトラジェクティブ・インテリジェンス・エクストラクタ,(2)エラー,リカバリ,あるいは非効率につながる決定と推論ステップを識別する決定属性アナライザ,(3)成功パターンからの戦略ヒントを生成するコンテキスト学習ジェネレータ,(2)非効率かつ成功した実行からの最適化ヒント,(4)多次元類似性に基づくエージェントプロンプトに関連する学習を注入する適応記憶検索システム,の4つのコンポーネントから構成される。
一般的な会話事実を記憶する既存のメモリシステムとは異なり、我々のフレームワークは実行パターンを理解し、前向きに構造化学習を抽出し、特定のタスクコンテキストに適したガイダンスを取得する。
AppWorldベンチマークの評価では、保留タスクにおけるシナリオ目標達成の最大14.3%のポイントゲイン、特に複雑なタスク(28.5〜ppシナリオ目標改善、相対的な149.%増加)が一貫した改善を示している。
関連論文リスト
- A Hierarchical Error-Corrective Graph Framework for Autonomous Agents with LLM-Based Action Generation [3.503249117641051]
本稿では3つのコアイノベーションを組み込んだ階層的誤り訂正グラフフレームワークfor AutonomousAgentswithLLM-BasedActionGeneration(HECG)を提案する。
MDTS:タスク品質指標(Q),信頼性/コスト指標(C),報酬指標(R),LLMに基づく意味推論スコア(LLM-Score)を統合することで,MDTSは定量的パフォーマンスと意味的コンテキストの多次元的アライメントを実現する。
EMC:単純な混乱行列や全体的なパフォーマンス指標とは異なり、EMCはエラーをStrategy Whe(Strategy Whe)やScript(Script)といった10のタイプに分類することで、タスク障害の構造化された属性を提供する。
論文 参考訳(メタデータ) (2026-03-09T13:46:00Z) - Exploring Reasoning Reward Model for Agents [30.458783880389216]
エージェント強化学習(Agentic RL)は、エージェントが複雑な推論やツールの使用を行えるようにして、顕著な成功を収めた。
ほとんどの手法は依然として、トレーニングに対するスパースな結果ベースの報酬に依存しています。
本稿ではエージェント・リソン・リワードモデル(Agent-RRM)を紹介する。
論文 参考訳(メタデータ) (2026-01-29T18:59:52Z) - ReflexGrad: Three-Way Synergistic Architecture for Zero-Shot Generalization in LLM Agents [0.0]
ReflexGradは、3つの相補的なメカニズムを密に結合する新しいアーキテクチャである。
本システムは, 純粋意味論的推論により, 真のゼロショット一般化を実現する。
我々の研究は、相補的な学習機構の相補的な統合が、堅牢なゼロショット一般化を可能にすることを実証している。
論文 参考訳(メタデータ) (2025-11-18T15:25:05Z) - Experience-Guided Adaptation of Inference-Time Reasoning Strategies [49.954515048847874]
Experience-Guided Reasoner (EGuR) は蓄積された経験に基づいて推論時に調整された戦略を生成する。
EGuRは最強のベースラインに対して最大14%の精度向上を実現し、計算コストを最大111倍に削減する。
論文 参考訳(メタデータ) (2025-11-14T17:45:28Z) - AgentPRM: Process Reward Models for LLM Agents via Step-Wise Promise and Progress [71.02263260394261]
大規模言語モデル(LLM)は、マルチターン意思決定タスクにおいて依然として課題に直面している。
プロセス報酬モデル(PRM)を構築し、各意思決定を評価し、エージェントの意思決定プロセスを導く。
AgentPRMは、シーケンシャルな決定と最終的な目標への貢献の間の相互依存の両方をキャプチャする。
論文 参考訳(メタデータ) (2025-11-11T14:57:54Z) - Understanding Code Agent Behaviour: An Empirical Study of Success and Failure Trajectories [10.751728274263536]
本稿では,エージェントのトラジェクトリ,すなわちソフトウェア問題の解決に際し,エージェントが行うステップを捉えた実行トレースについて,実証的研究を行う。
我々は、SWE-Benchベンチマークで、最先端の3つのコードエージェント(OpenHands、SWE-agent、Prometheus)の軌跡を分析し、成功と失敗の両方について検討した。
論文 参考訳(メタデータ) (2025-10-31T18:58:13Z) - Scaling Test-time Compute for LLM Agents [51.790752085445384]
テスト時間計算のスケールアップは、大規模言語モデル(LLM)の推論能力の向上に顕著な成功を収めた。
本研究では,テスト時間スケーリング手法を言語エージェントに適用する最初の体系的な検討を行う。
論文 参考訳(メタデータ) (2025-06-15T17:59:47Z) - Learning Task Representations from In-Context Learning [67.66042137487287]
大規模言語モデル(LLM)は、文脈内学習(ICL)において顕著な習熟性を示した。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法は,テキスト中の実演からタスク固有の情報を抽出し,テキストと回帰タスクの両方で優れる。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Understanding the Design Decisions of Retrieval-Augmented Generation Systems [7.10184268156888]
Retrieval-Augmented Generation (RAG) は、大規模言語モデル(LLM)能力を向上するための重要な技術として登場した。
本稿では,3つの共通RAG展開決定に関する総合的研究について紹介する。
論文 参考訳(メタデータ) (2024-11-29T04:25:31Z) - Watch Every Step! LLM Agent Learning via Iterative Step-Level Process Refinement [50.481380478458945]
反復的なステップレベルプロセスリファインメント(IPR)フレームワークは、エージェントトレーニングを強化するためのステップバイステップのガイダンスを提供する。
3つの複雑なエージェントタスクに関する我々の実験は、我々のフレームワークが様々な強力なベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2024-06-17T03:29:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。