論文の概要: MemoCue: Empowering LLM-Based Agents for Human Memory Recall via Strategy-Guided Querying
- arxiv url: http://arxiv.org/abs/2507.23633v1
- Date: Thu, 31 Jul 2025 15:11:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:10.018032
- Title: MemoCue: Empowering LLM-Based Agents for Human Memory Recall via Strategy-Guided Querying
- Title(参考訳): MemoCue:戦略ガイドクエリによる人間のメモリリコールのためのLCMベースのエージェントの強化
- Authors: Qian Zhao, Zhuo Sun, Bin Guo, Zhiwen Yu,
- Abstract要約: 戦略誘導型エージェント支援メモリリコール手法を提案し,エージェントが元のクエリをキューリッチなクエリに変換する。
メモリクエリを5つの典型的なシナリオに分類する5Wリコールマップを設計する。
次に,モンテカルロ木探索アルゴリズムと組み合わせた階層的リコールツリーを提案し,戦略選択と戦略応答の生成を最適化する。
- 参考スコア(独自算出の注目度): 12.524353050278105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agent-assisted memory recall is one critical research problem in the field of human-computer interaction. In conventional methods, the agent can retrieve information from its equipped memory module to help the person recall incomplete or vague memories. The limited size of memory module hinders the acquisition of complete memories and impacts the memory recall performance in practice. Memory theories suggest that the person's relevant memory can be proactively activated through some effective cues. Inspired by this, we propose a novel strategy-guided agent-assisted memory recall method, allowing the agent to transform an original query into a cue-rich one via the judiciously designed strategy to help the person recall memories. To this end, there are two key challenges. (1) How to choose the appropriate recall strategy for diverse forgetting scenarios with distinct memory-recall characteristics? (2) How to obtain the high-quality responses leveraging recall strategies, given only abstract and sparsely annotated strategy patterns? To address the challenges, we propose a Recall Router framework. Specifically, we design a 5W Recall Map to classify memory queries into five typical scenarios and define fifteen recall strategy patterns across the corresponding scenarios. We then propose a hierarchical recall tree combined with the Monte Carlo Tree Search algorithm to optimize the selection of strategy and the generation of strategy responses. We construct an instruction tuning dataset and fine-tune multiple open-source large language models (LLMs) to develop MemoCue, an agent that excels in providing memory-inspired responses. Experiments on three representative datasets show that MemoCue surpasses LLM-based methods by 17.74% in recall inspiration. Further human evaluation highlights its advantages in memory-recall applications.
- Abstract(参考訳): エージェント支援メモリリコールは、人間とコンピュータの相互作用の分野における重要な研究課題である。
従来の方法では、エージェントは、装備されたメモリモジュールから情報を取得し、不完全な記憶やあいまいな記憶を思い出すのを助けることができる。
メモリモジュールのサイズが限られているため、完全なメモリの取得が妨げられ、実際にメモリリコールのパフォーマンスに影響を及ぼす。
記憶理論は、ある効果的な手がかりによって、その人の関連する記憶が積極的に活性化されることを示唆している。
そこで本研究では,提案手法を考案したエージェント支援メモリリコール手法を提案する。この手法により,エージェントは,ユーザが記憶を思い出せるように設計した戦略を用いて,元のクエリをキューリッチなクエリに変換することができる。
この目的には2つの重要な課題がある。
1)異なるメモリ・リコール特性を持つ多様な記憶シナリオに対する適切なリコール戦略を選択するには?
2)抽象的かつ簡潔に注釈付けされた戦略パターンのみを考慮すれば,リコール戦略を活用した高品質な応答を得るにはどうすればよいのか?
これらの課題に対処するために、リコールルータフレームワークを提案する。
具体的には、メモリクエリを5つの典型的なシナリオに分類し、対応するシナリオ間で15のリコール戦略パターンを定義する5Wリコールマップを設計する。
次に,モンテカルロ木探索アルゴリズムと組み合わせた階層的リコールツリーを提案し,戦略選択と戦略応答の生成を最適化する。
インストラクションチューニングデータセットと複数のオープンソースの大言語モデル(LLM)を構築し,メモリにインスパイアされた応答を提供するエージェントであるMemoCueを開発する。
3つの代表的なデータセットの実験により、MemoCueはLLMベースのメソッドを17.74%上回るリコールインスピレーションを示した。
さらに人間による評価は、メモリリコールアプリケーションにおけるその利点を強調している。
関連論文リスト
- Hierarchical Memory for High-Efficiency Long-Term Reasoning in LLM Agents [19.04968632268433]
大規模言語モデルエージェント(LLMエージェント)のための階層型メモリアーキテクチャを提案する。
各メモリベクトルは、次の層のセマンティック関連サブメモリを指し示す位置インデックスが埋め込まれている。
推論フェーズにおいて、インデックスベースのルーティング機構は、網羅的な類似性計算を行うことなく、効率的な層間検索を可能にする。
論文 参考訳(メタデータ) (2025-07-23T12:45:44Z) - Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions [55.19217798774033]
メモリは、大規模言語モデル(LLM)ベースのエージェントを支える、AIシステムの基本コンポーネントである。
本稿ではまず,メモリ表現をパラメトリックおよびコンテキスト形式に分類する。
次に、コンソリデーション、更新、インデックス付け、フォッティング、検索、圧縮の6つの基本的なメモリ操作を紹介します。
論文 参考訳(メタデータ) (2025-05-01T17:31:33Z) - A-MEM: Agentic Memory for LLM Agents [42.50876509391843]
大規模言語モデル(LLM)エージェントは、歴史的経験を活用するためにメモリシステムを必要とする。
現在のメモリシステムは基本的なストレージと検索を可能にするが、洗練されたメモリ構造は欠如している。
本稿では, LLMエージェントに対して, エージェント方式で動的に記憶を整理できる新しいエージェントメモリシステムを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:36:14Z) - On the Structural Memory of LLM Agents [20.529239764968654]
メモリは、大規模言語モデル(LLM)ベースのエージェントが複雑で長期的な相互作用を行えるようにするための重要な役割を担っている。
本稿では,メモリ構造とメモリ検索手法がLCMエージェントの性能に与える影響について検討する。
論文 参考訳(メタデータ) (2024-12-17T04:30:00Z) - Assessing Episodic Memory in LLMs with Sequence Order Recall Tasks [42.22616978679253]
本稿では,認知心理学におけるエピソード記憶研究の課題から順応する逐次リコールタスク(SORT)を紹介する。
SORTはLLMにテキストセグメントの正しい順序を思い出させる必要があり、拡張が容易で追加のアノテーションを必要としない一般的なフレームワークを提供する。
155人の被験者による人間実験から,本書の長期記憶に基づくシーケンス順序を再現できることが示唆された。
論文 参考訳(メタデータ) (2024-10-10T17:17:38Z) - Lift Yourself Up: Retrieval-augmented Text Generation with Self Memory [72.36736686941671]
本稿では,検索拡張生成モデルを改善するための新しいフレームワーク,Selfmemを提案する。
Selfmemは、検索拡張ジェネレータを反復的に使用して、無制限のメモリプールを生成し、メモリセレクタを使用して、続く生成ラウンドの1つの出力をメモリとして選択する。
我々は,3つの異なるテキスト生成タスクにおける自己メモの有効性を評価する。
論文 参考訳(メタデータ) (2023-05-03T21:40:54Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z) - The act of remembering: a study in partially observable reinforcement
learning [24.945756871291348]
強化学習(Reinforcement Learning, RL)エージェントは、通常、アクションを選択するときの最後の観察のみを考慮するメモリレスポリシーを学ぶ。
エージェントに外部メモリと追加アクションを提供して、もし何かあれば、メモリに書き込まれるものを制御する。
我々の新しいメモリ形態は、よく確立された部分的に観測可能な領域におけるバイナリとLSTMベースのメモリより優れている。
論文 参考訳(メタデータ) (2020-10-05T02:56:43Z) - Self-Attentive Associative Memory [69.40038844695917]
我々は、個々の体験(記憶)とその発生する関係(関連記憶)の記憶を分離することを提案する。
機械学習タスクの多様性において,提案した2メモリモデルと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-02-10T03:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。