論文の概要: Unifying Dynamic Tool Creation and Cross-Task Experience Sharing through Cognitive Memory Architecture
- arxiv url: http://arxiv.org/abs/2512.11303v1
- Date: Fri, 12 Dec 2025 06:00:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.674306
- Title: Unifying Dynamic Tool Creation and Cross-Task Experience Sharing through Cognitive Memory Architecture
- Title(参考訳): 認知記憶アーキテクチャによる動的ツール作成とクロスタスク体験の共有
- Authors: Jiarun Liu, Shiyue Xu, Yang Li, Shangkun Liu, Yongli Yu, Peng Cao,
- Abstract要約: 大きな言語モデルエージェントは、ツールの可用性と経験の再利用の制限により、新しいタスクに適応する上で、根本的な課題に直面します。
SMITHは、動的ツール作成とタスク間の体験共有をシームレスに統合する統合認知アーキテクチャである。
SMITHは、エージェントメモリを手続き的、意味的、エピソード的なコンポーネントに整理し、実行パターンを成功させながら、体系的な機能拡張を可能にする。
- 参考スコア(独自算出の注目度): 9.676404250315343
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Model agents face fundamental challenges in adapting to novel tasks due to limitations in tool availability and experience reuse. Existing approaches either rely on predefined tools with limited coverage or build tools from scratch without leveraging past experiences, leading to inefficient exploration and suboptimal performance. We introduce SMITH (Shared Memory Integrated Tool Hub), a unified cognitive architecture that seamlessly integrates dynamic tool creation with cross-task experience sharing through hierarchical memory organization. SMITH organizes agent memory into procedural, semantic, and episodic components, enabling systematic capability expansion while preserving successful execution patterns. Our approach formalizes tool creation as iterative code generation within controlled sandbox environments and experience sharing through episodic memory retrieval with semantic similarity matching. We further propose a curriculum learning strategy based on agent-ensemble difficulty re-estimation. Extensive experiments on the GAIA benchmark demonstrate SMITH's effectiveness, achieving 81.8% Pass@1 accuracy and outperforming state-of-the-art baselines including Alita (75.2%) and Memento (70.9%). Our work establishes a foundation for building truly adaptive agents that continuously evolve their capabilities through principled integration of tool creation and experience accumulation.
- Abstract(参考訳): 大きな言語モデルエージェントは、ツールの可用性と経験の再利用の制限により、新しいタスクに適応する上で、根本的な課題に直面します。
既存のアプローチは、カバー範囲が限られている事前定義されたツールに依存するか、過去の経験を活用せずにスクラッチからビルドツールを使用する。
SMITH(Shared Memory Integrated Tool Hub)は、動的ツール作成をシームレスに統合し、階層的なメモリ組織を通してタスク間体験を共有する統合型認知アーキテクチャである。
SMITHは、エージェントメモリを手続き的、意味的、エピソード的なコンポーネントに整理し、実行パターンを成功させながら、体系的な機能拡張を可能にする。
制御されたサンドボックス環境における反復的コード生成としてツール生成を形式化し,セマンティックな類似性マッチングによるエピソードメモリ検索による共有を経験する。
さらに,エージェントアンサンブル難易度再推定に基づくカリキュラム学習戦略を提案する。
GAIAベンチマークの大規模な実験は、SMITHの有効性を示し、81.8%のPass@1精度を達成し、Alita (75.2%)やMemento (70.9%)など最先端のベースラインを上回っている。
私たちの研究は、ツール作成と経験蓄積の原則的な統合を通じて、その能力を継続的に進化させる真に適応的なエージェントを構築するための基盤を確立します。
関連論文リスト
- ReasoningBank: Scaling Agent Self-Evolving with Reasoning Memory [57.517214479414726]
ReasoningBankは、エージェントの自己判断の成功と失敗の経験から一般化可能な推論戦略を抽出するメモリフレームワークである。
テスト時には、エージェントがReasoningBankから関連する記憶を取得してそのインタラクションを知らせ、新しい学習を統合することで、時間が経つにつれてより有能になる。
本稿では,エージェントのインタラクションエクスペリエンスをスケールアップすることにより,学習プロセスの高速化と多様化を図るメモリ対応テストタイムスケーリング(MaTTS)を提案する。
論文 参考訳(メタデータ) (2025-09-29T17:51:03Z) - Memory Management and Contextual Consistency for Long-Running Low-Code Agents [0.0]
本稿ではLCNCエージェントに特化して設計された新しいハイブリッドメモリシステムを提案する。
認知科学にインスパイアされた私たちのアーキテクチャは、エピソードとセマンティックメモリコンポーネントと、積極的な「インテリジェント・デカイ」メカニズムを組み合わせています。
鍵となるイノベーションは、LCNCパラダイムに沿ったユーザ中心の可視化インターフェースであり、非技術者のユーザがエージェントのメモリを直接管理できるようにする。
論文 参考訳(メタデータ) (2025-09-27T08:01:26Z) - Experience Scaling: Post-Deployment Evolution For Large Language Models [44.48142891798125]
大規模言語モデル(LLM)の継続的デプロイ後進化のためのフレームワークであるエクスペリエンススケーリングを提案する。
このフレームワークは,以前には見つからなかったが関連するタスク,繰り返しクエリ,過飽和知識ストアへの一般化を含む実世界のシナリオで検証される。
その結果、構造化されたデプロイ後学習は、静的な人間生成データの限界を超えてLLM能力を拡張できることを示した。
論文 参考訳(メタデータ) (2025-09-23T08:04:58Z) - Memp: Exploring Agent Procedural Memory [72.41472703974935]
LLM(Large Language Models)ベースのエージェントは様々なタスクをこなすが、静的パラメータで手動で設計または絡み合うような不安定なプロシージャメモリに悩まされる。
本稿では,過去のエージェントの軌跡をステップバイステップの細粒度と高レベルなスクリプトライクな抽象化の両方に蒸留するMempを提案する。
メモリレポジトリが洗練されるにつれて、エージェントは着実に高い成功率と類似タスクの効率を達成できることを示す。
論文 参考訳(メタデータ) (2025-08-08T16:20:56Z) - LLaVA-CMoE: Towards Continual Mixture of Experts for Large Vision-Language Models [21.888139819188105]
LLaVA-CMoEは、大規模言語モデルの継続的な学習フレームワークである。
Probe-Guided Knowledge Extensionメカニズムは、いつ、どこで新しいエキスパートを追加するべきかを決定する。
Probabilistic Task Locatorは各タスクを専用軽量ルータに割り当てる。
論文 参考訳(メタデータ) (2025-03-27T07:36:11Z) - Learning to Use Tools via Cooperative and Interactive Agents [58.77710337157665]
ツール学習は、外部ツールを使用してユーティリティを拡張するエージェントとして、大きな言語モデル(LLM)を促進する。
ツール選択,ツール実行,アクションキャリブレーションの3つの特別なエージェントを個別にコーディネートする,協調型対話型エージェントフレームワークであるConAgentsを提案する。
3つのデータセットに対する実験により、LLMは、ConAgentsを装備した場合、大幅に改善されたベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z) - Adversarial Continual Learning [99.56738010842301]
本稿では,タスク不変およびタスク特化機能に対する不整合表現を学習するハイブリッド連続学習フレームワークを提案する。
本モデルでは,タスク固有のスキルの忘れを防止するためにアーキテクチャの成長と,共有スキルを維持するための経験的リプレイアプローチを組み合わせる。
論文 参考訳(メタデータ) (2020-03-21T02:08:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。