論文の概要: Evoking User Memory: Personalizing LLM via Recollection-Familiarity Adaptive Retrieval
- arxiv url: http://arxiv.org/abs/2603.09250v1
- Date: Tue, 10 Mar 2026 06:31:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.100096
- Title: Evoking User Memory: Personalizing LLM via Recollection-Familiarity Adaptive Retrieval
- Title(参考訳): ユーザの記憶を喚起する: 再現親和性適応検索によるLLMのパーソナライズ
- Authors: Yingyi Zhang, Junyi Li, Wenlin Zhang, Penyue Jia, Xianneng Li, Yichao Wang, Derong Xu, Yi Wen, Huifeng Guo, Yong Liu, Xiangyu Zhao,
- Abstract要約: RF-Memは、親しみやすい不確実性誘導デュアルパスメモリレトリバーである。
それは、人間のようなデュアルプロセス認識をレトリバーに埋め込む。
一定の予算とレイテンシの制約の下で、ワンショット検索とフルコンテキスト推論を一貫して上回る。
- 参考スコア(独自算出の注目度): 59.295767860331004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized large language models (LLMs) rely on memory retrieval to incorporate user-specific histories, preferences, and contexts. Existing approaches either overload the LLM by feeding all the user's past memory into the prompt, which is costly and unscalable, or simplify retrieval into a one-shot similarity search, which captures only surface matches. Cognitive science, however, shows that human memory operates through a dual process: Familiarity, offering fast but coarse recognition, and Recollection, enabling deliberate, chain-like reconstruction for deeply recovering episodic content. Current systems lack both the ability to perform recollection retrieval and mechanisms to adaptively switch between the dual retrieval paths, leading to either insufficient recall or the inclusion of noise. To address this, we propose RF-Mem (Recollection-Familiarity Memory Retrieval), a familiarity uncertainty-guided dual-path memory retriever. RF-Mem measures the familiarity signal through the mean score and entropy. High familiarity leads to the direct top-K Familiarity retrieval path, while low familiarity activates the Recollection path. In the Recollection path, the system clusters candidate memories and applies alpha-mix with the query to iteratively expand evidence in embedding space, simulating deliberate contextual reconstruction. This design embeds human-like dual-process recognition into the retriever, avoiding full-context overhead and enabling scalable, adaptive personalization. Experiments across three benchmarks and corpus scales demonstrate that RF-Mem consistently outperforms both one-shot retrieval and full-context reasoning under fixed budget and latency constraints. Our code can be found in the Reproducibility Statement.
- Abstract(参考訳): パーソナライズされた大規模言語モデル(LLM)は、ユーザ固有の履歴、好み、コンテキストを記憶検索に頼っている。
既存のアプローチでは、すべてのユーザの過去のメモリをプロンプトに供給することでLCMをオーバーロードするか、ワンショット類似検索への検索を単純化し、サーフェスマッチのみをキャプチャする。
しかし認知科学は、人間の記憶が二重のプロセスで機能していることを示している: 慣れ親しみがあり、速くて粗い認識を提供する。
現在のシステムは、復調検索を行う能力と、二重検索経路を適応的に切り替える機構の両方を欠いているため、リコールが不十分であったりノイズが混入していたりしている。
RF-Mem(Recollection-Familiarity Memory Retrieval)を提案する。
RF-Memは平均スコアとエントロピーを通じて親しみやすさ信号を測定する。
高親しみ度は直接トップK親しみ度検索経路につながるが、低親しみ度はRecollectionパスを活性化する。
Recollectionパスでは、システムは候補記憶をクラスタリングし、クエリとアルファミックスを適用して、埋め込み空間における証拠を反復的に拡大し、意図的なコンテキスト再構成をシミュレートする。
この設計は、人間のようなデュアルプロセス認識をレトリバーに組み込んで、フルコンテキストのオーバーヘッドを回避し、スケーラブルで適応的なパーソナライズを可能にする。
3つのベンチマークとコーパススケールでの実験では、RF-Memは固定予算とレイテンシの制約の下で、ワンショット検索とフルコンテキスト推論の両方を一貫して上回っている。
私たちのコードはReproducibility Statementで確認できます。
関連論文リスト
- REMem: Reasoning with Episodic Memory in Language Agent [32.63834745610879]
エピソードメモリを用いた構築と推論のためのフレームワークであるREMemについて述べる。
我々はREMemがMem0やHippoRAG 2のような時空間記憶システムよりも大幅に優れていることを示す。
REMemはまた、答えられない質問に対してより堅牢な拒絶行動を示す。
論文 参考訳(メタデータ) (2026-02-13T23:54:55Z) - AMA: Adaptive Memory via Multi-Agent Collaboration [54.490349689939166]
複数の粒度にまたがるメモリ管理に協調エージェントを活用する新しいフレームワークであるAMA(Adaptive Memory via Multi-Agent Collaboration)を提案する。
AMAは、ステート・オブ・ザ・アートのベースラインを著しく上回り、トークンの消費をフルコンテキストの手法と比べて約80%削減する。
論文 参考訳(メタデータ) (2026-01-28T08:09:49Z) - Agentic Learner with Grow-and-Refine Multimodal Semantic Memory [50.81667005063605]
ViLoMemは、コンパクトなスキーマベースのメモリを構築するデュアルストリームメモリフレームワークである。
視覚的障害パターンと論理的推論エラーを符号化し、MLLMが成功し失敗した経験から学ぶことを可能にする。
論文 参考訳(メタデータ) (2025-11-26T18:55:08Z) - Look Back to Reason Forward: Revisitable Memory for Long-Context LLM Agents [33.617262543252494]
本稿では、メモリ履歴全体からの選択的検索を可能にするコールバック強化メモリを備えたメモリ拡張エージェントReMemR1を提案する。
また,RLMLR(Reinforcement Learning with Multi-Level Rewards)を提案する。
論文 参考訳(メタデータ) (2025-09-27T01:36:46Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - Adversarially Diversified Rehearsal Memory (ADRM): Mitigating Memory Overfitting Challenge in Continual Learning [0.0]
継続的な学習は、それまでの知識を忘れずに、静止しないデータ分布を学習することに焦点を当てる。
リハーサルベースのアプローチは、破滅的な忘れに対処するために一般的に使用される。
本稿では、メモリ過度に適合する課題に対処するために、Adversarially Diversified Rehearsal Memoryを導入する。
論文 参考訳(メタデータ) (2024-05-20T06:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。