論文の概要: CLAG: Adaptive Memory Organization via Agent-Driven Clustering for Small Language Model Agents
- arxiv url: http://arxiv.org/abs/2603.15421v1
- Date: Mon, 16 Mar 2026 15:30:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.543438
- Title: CLAG: Adaptive Memory Organization via Agent-Driven Clustering for Small Language Model Agents
- Title(参考訳): CLAG:小言語モデルエージェントのためのエージェント駆動クラスタリングによる適応メモリ機構
- Authors: Taeyun Roh, Wonjune Jang, Junha Jung, Jaewoo Kang,
- Abstract要約: 本稿では、CLusteringベースのAGenticメモリフレームワークであるCLAGを紹介し、SLMエージェントがクラスタリングによってメモリを積極的に整理する。
これらの構造された領域内で局所的な進化を行うことで、CLAGは効果的に横断的干渉を減らし、内部記憶密度を高める。
3つのSLMバックボーンを持つ複数のQAデータセットの実験では、CLAGはエージェントの以前のメモリシステムよりも応答品質と堅牢性を一貫して改善し、軽量で効率的な状態を維持している。
- 参考スコア(独自算出の注目度): 14.554199342275588
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language model agents heavily rely on external memory to support knowledge reuse and complex reasoning tasks. Yet most memory systems store experiences in a single global retrieval pool which can gradually dilute or corrupt stored knowledge. This problem is especially pronounced for small language models (SLMs), which are highly vulnerable to irrelevant context. We introduce CLAG, a CLustering-based AGentic memory framework where an SLM agent actively organizes memory by clustering. CLAG employs an SLM-driven router to assign incoming memories to semantically coherent clusters and autonomously generates cluster-specific profiles, including topic summaries and descriptive tags, to establish each cluster as a self-contained functional unit. By performing localized evolution within these structured neighborhoods, CLAG effectively reduces cross-topic interference and enhances internal memory density. During retrieval, the framework utilizes a two-stage process that first filters relevant clusters via their profiles, thereby excluding distractors and reducing the search space. Experiments on multiple QA datasets with three SLM backbones show that CLAG consistently improves answer quality and robustness over prior memory systems for agents, remaining lightweight and efficient.
- Abstract(参考訳): 大規模な言語モデルエージェントは、知識の再利用と複雑な推論タスクをサポートするために、外部メモリに大きく依存している。
しかし、ほとんどのメモリシステムは、経験を単一のグローバル検索プールに格納する。
この問題は特に、無関係な文脈に対して非常に脆弱な小言語モデル(SLM)に対して顕著である。
本稿では、CLusteringベースのAGenticメモリフレームワークであるCLAGを紹介し、SLMエージェントがクラスタリングによってメモリを積極的に整理する。
CLAGは、SLM駆動ルータを使用して、入力メモリをセマンティックコヒーレントクラスタに割り当て、トピックの要約や記述タグを含むクラスタ固有のプロファイルを自律的に生成し、各クラスタを自己完結型機能ユニットとして確立する。
これらの構造された領域内で局所的な進化を行うことで、CLAGは効果的に横断的干渉を減らし、内部記憶密度を高める。
検索において、このフレームワークは、2段階のプロセスを利用して、まずプロファイルを介して関連するクラスタをフィルタリングし、トラクタを排除し、検索スペースを縮小する。
3つのSLMバックボーンを持つ複数のQAデータセットの実験では、CLAGはエージェントの以前のメモリシステムよりも応答品質と堅牢性を一貫して改善し、軽量で効率的な状態を維持している。
関連論文リスト
- Choosing How to Remember: Adaptive Memory Structures for LLM Agents [43.27579458682491]
メモリは、大きな言語モデル(LLM)ベースのエージェントが長い水平相互作用に対するコヒーレントな振舞いを維持するために重要である。
LLMエージェントに適応的なメモリ構成を可能にする統合フレームワークFluxMemを提案する。
PERSONAMEMとLoCoMoの2つのロングホライゾンベンチマーク実験により,本手法が平均改善率9.18%と6.14%を達成することを示した。
論文 参考訳(メタデータ) (2026-02-15T07:56:24Z) - Clustering-driven Memory Compression for On-device Large Language Models [36.84681161552071]
文脈効率とパーソナライズ品質のバランスをとるメモリ圧縮戦略を導入する。
我々の手法は、類似性によって記憶をグループ化し、結合前にそれらをクラスタ内にマージする。
実験により,本手法はメモリトークン数を大幅に削減し,ベースライン戦略より優れていることが示された。
論文 参考訳(メタデータ) (2026-01-24T12:31:15Z) - LLM-MemCluster: Empowering Large Language Models with Dynamic Memory for Text Clustering [52.41664454251679]
大規模言語モデル(LLM)は、テキストクラスタリングを行う前例のない能力を提供することで、教師なしの学習を再構築している。
既存のメソッドは、しばしば外部モジュールを持つ複雑なパイプラインに依存し、真にエンドツーエンドのアプローチを犠牲にする。
LLM-MemClusterは,クラスタリングをLLMネイティブタスクとして再認識する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-11-19T13:22:08Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [89.55738101744657]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - Hierarchical Memory for High-Efficiency Long-Term Reasoning in LLM Agents [19.04968632268433]
大規模言語モデルエージェント(LLMエージェント)のための階層型メモリアーキテクチャを提案する。
各メモリベクトルは、次の層のセマンティック関連サブメモリを指し示す位置インデックスが埋め込まれている。
推論フェーズにおいて、インデックスベースのルーティング機構は、網羅的な類似性計算を行うことなく、効率的な層間検索を可能にする。
論文 参考訳(メタデータ) (2025-07-23T12:45:44Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - MemoRAG: Boosting Long Context Processing with Global Memory-Enhanced Retrieval Augmentation [60.04380907045708]
Retrieval-Augmented Generation (RAG)は、この問題に対処するための有望な戦略と考えられている。
我々は,グローバルメモリ拡張検索による新しいRAGフレームワークであるMemoRAGを提案する。
MemoRAGは、様々な長期コンテキスト評価タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-09-09T13:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。