論文の概要: Explicit v.s. Implicit Memory: Exploring Multi-hop Complex Reasoning Over Personalized Information
- arxiv url: http://arxiv.org/abs/2508.13250v1
- Date: Mon, 18 Aug 2025 13:34:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.688332
- Title: Explicit v.s. Implicit Memory: Exploring Multi-hop Complex Reasoning Over Personalized Information
- Title(参考訳): Explicit vs. S. Implicit Memory: Exploring Multi-hop Complex Reasoning over Personalized Information
- Authors: Zeyu Zhang, Yang Zhang, Haoran Tan, Rui Li, Xu Chen,
- Abstract要約: 大規模言語モデルに基づくエージェントでは、メモリはユーザの情報を保存して活用することでパーソナライズを達成する重要な能力として機能する。
本稿では、パーソナライズされた情報に対するマルチホップ推論において、異なるメモリ機構がどのように機能するかを検討するために、マルチホップパーソナライズされた推論タスクを提案する。
- 参考スコア(独自算出の注目度): 13.292751023556221
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In large language model-based agents, memory serves as a critical capability for achieving personalization by storing and utilizing users' information. Although some previous studies have adopted memory to implement user personalization, they typically focus on preference alignment and simple question-answering. However, in the real world, complex tasks often require multi-hop reasoning on a large amount of user information, which poses significant challenges for current memory approaches. To address this limitation, we propose the multi-hop personalized reasoning task to explore how different memory mechanisms perform in multi-hop reasoning over personalized information. We explicitly define this task and construct a dataset along with a unified evaluation framework. Then, we implement various explicit and implicit memory methods and conduct comprehensive experiments. We evaluate their performance on this task from multiple perspectives and analyze their strengths and weaknesses. Besides, we explore hybrid approaches that combine both paradigms and propose the HybridMem method to address their limitations. We demonstrate the effectiveness of our proposed model through extensive experiments. To benefit the research community, we release this project at https://github.com/nuster1128/MPR.
- Abstract(参考訳): 大規模言語モデルに基づくエージェントでは、メモリはユーザの情報を保存して活用することでパーソナライズを達成する重要な能力として機能する。
ユーザパーソナライズを実装するためにメモリを採用した以前の研究もあるが、それらは通常、好みのアライメントと単純な質問応答に重点を置いている。
しかし、現実の世界では、複雑なタスクは、しばしば大量のユーザー情報に基づくマルチホップ推論を必要とするため、現在のメモリアプローチには大きな課題が生じる。
この制限に対処するため、パーソナライズされた情報に対するマルチホップ推論において、異なるメモリ機構がどのように機能するかを検討するために、マルチホップパーソナライズされた推論タスクを提案する。
我々は、このタスクを明示的に定義し、統一された評価フレームワークと共にデータセットを構築します。
そして,様々な暗黙的,暗黙的なメモリ手法を実装し,包括的な実験を行う。
複数の視点からタスクのパフォーマンスを評価し,その強みと弱点を分析した。
さらに,両パラダイムを組み合わせるハイブリッドアプローチについて検討し,それらの制約に対処するHybridMem法を提案する。
提案手法の有効性を広範囲な実験により実証する。
研究コミュニティに利益をもたらすため、このプロジェクトをhttps://github.com/nuster1128/MPRでリリースします。
関連論文リスト
- PRIME: Large Language Model Personalization with Cognitive Memory and Thought Processes [6.631626634132574]
大規模言語モデル(LLM)のパーソナライゼーションは、モデルのアウトプットを個人の独特な好みや意見と整合させることを目的としている。
本稿では,エピソードおよびセマンティックメモリ機構を用いた統一フレームワークPRIMEを提案する。
実験はPRIMEの有効性を長文と短文の両方のシナリオで検証する。
論文 参考訳(メタデータ) (2025-07-07T01:54:34Z) - FindingDory: A Benchmark to Evaluate Memory in Embodied Agents [49.89792845476579]
本研究では,Habitatシミュレータに長距離エンボディタスクのための新しいベンチマークを導入する。
このベンチマークは、持続的なエンゲージメントとコンテキスト認識を必要とする60タスクにわたるメモリベースの機能を評価する。
論文 参考訳(メタデータ) (2025-06-18T17:06:28Z) - Embodied Agents Meet Personalization: Exploring Memory Utilization for Personalized Assistance [18.820008753896623]
大規模言語モデル(LLM)によって強化されたエンボディードエージェントは,家庭内オブジェクト再構成タスクにおいて高い性能を示した。
しかし、パーソナライズされた支援のためのメモリ利用におけるエンボディードエージェントの有効性は、いまだに過小評価されている。
本稿では,メモリ利用能力の評価を目的とした個人化エージェント評価フレームワークであるMementOについて述べる。
論文 参考訳(メタデータ) (2025-05-22T08:00:10Z) - Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions [55.19217798774033]
メモリは、大規模言語モデル(LLM)ベースのエージェントを支える、AIシステムの基本コンポーネントである。
本稿ではまず,メモリ表現をパラメトリックおよびコンテキスト形式に分類する。
次に、コンソリデーション、更新、インデックス付け、フォッティング、検索、圧縮の6つの基本的なメモリ操作を紹介します。
論文 参考訳(メタデータ) (2025-05-01T17:31:33Z) - On the Structural Memory of LLM Agents [20.529239764968654]
メモリは、大規模言語モデル(LLM)ベースのエージェントが複雑で長期的な相互作用を行えるようにするための重要な役割を担っている。
本稿では,メモリ構造とメモリ検索手法がLCMエージェントの性能に与える影響について検討する。
論文 参考訳(メタデータ) (2024-12-17T04:30:00Z) - Unraveling the Complexity of Memory in RL Agents: an Approach for Classification and Evaluation [39.69790911626182]
強化学習領域(RL)における多数のタスクにおいて、エージェントへのメモリの取り込みが不可欠である
メモリ」という用語は幅広い概念を包含しており、エージェントのメモリを検証するための統一的な方法論が欠如していることと相まって、エージェントのメモリ能力に関する誤った判断につながる。
本稿では,エージェントメモリタイプを正確に定義することで,RLにおけるメモリ概念の合理化を目指す。
論文 参考訳(メタデータ) (2024-12-09T14:34:31Z) - Personalized Multimodal Large Language Models: A Survey [127.9521218125761]
マルチモーダル大言語モデル(MLLM)は、最先端の性能と複数のデータモダリティを統合する能力により、ますます重要になっている。
本稿では,パーソナライズされたマルチモーダルな大規模言語モデルに関する包括的調査を行い,そのアーキテクチャ,トレーニング方法,アプリケーションに焦点をあてる。
論文 参考訳(メタデータ) (2024-12-03T03:59:03Z) - Learning to Learn Variational Semantic Memory [132.39737669936125]
我々はメタラーニングに変分セマンティックメモリを導入し、数ショットラーニングのための長期的知識を得る。
セマンティックメモリはスクラッチから成長し、経験したタスクから情報を吸収することで徐々に統合される。
アドレスコンテンツから潜在記憶変数の変動推論としてメモリリコールを定式化する。
論文 参考訳(メタデータ) (2020-10-20T15:05:26Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z) - PeTra: A Sparsely Supervised Memory Model for People Tracking [50.98911178059019]
メモリスロット内のエンティティを追跡するように設計されたメモリ拡張ニューラルネットワークであるPeTraを提案する。
我々は、重要なモデリング選択を経験的に比較し、強い性能を維持しながら、メモリモジュールの設計のいくつかの側面を単純化できることを見出した。
PeTraは両方の評価に非常に効果的で、限られたアノテーションで訓練されているにもかかわらず、メモリ内の人々を追跡できる能力を示している。
論文 参考訳(メタデータ) (2020-05-06T17:45:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。