論文の概要: On the Structural Memory of LLM Agents
- arxiv url: http://arxiv.org/abs/2412.15266v1
- Date: Tue, 17 Dec 2024 04:30:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 19:51:07.415115
- Title: On the Structural Memory of LLM Agents
- Title(参考訳): LLM剤の構造記憶について
- Authors: Ruihong Zeng, Jinyuan Fang, Siwei Liu, Zaiqiao Meng,
- Abstract要約: メモリは、大規模言語モデル(LLM)ベースのエージェントが複雑で長期的な相互作用を行えるようにするための重要な役割を担っている。
本稿では,メモリ構造とメモリ検索手法がLCMエージェントの性能に与える影響について検討する。
- 参考スコア(独自算出の注目度): 20.529239764968654
- License:
- Abstract: Memory plays a pivotal role in enabling large language model~(LLM)-based agents to engage in complex and long-term interactions, such as question answering (QA) and dialogue systems. While various memory modules have been proposed for these tasks, the impact of different memory structures across tasks remains insufficiently explored. This paper investigates how memory structures and memory retrieval methods affect the performance of LLM-based agents. Specifically, we evaluate four types of memory structures, including chunks, knowledge triples, atomic facts, and summaries, along with mixed memory that combines these components. In addition, we evaluate three widely used memory retrieval methods: single-step retrieval, reranking, and iterative retrieval. Extensive experiments conducted across four tasks and six datasets yield the following key insights: (1) Different memory structures offer distinct advantages, enabling them to be tailored to specific tasks; (2) Mixed memory structures demonstrate remarkable resilience in noisy environments; (3) Iterative retrieval consistently outperforms other methods across various scenarios. Our investigation aims to inspire further research into the design of memory systems for LLM-based agents.
- Abstract(参考訳): メモリは、大きな言語モデル~(LLM)ベースのエージェントが質問応答(QA)や対話システムなど、複雑で長期にわたる対話を行えるようにするための重要な役割を担っている。
これらのタスクには様々なメモリモジュールが提案されているが、タスク間の異なるメモリ構造の影響はいまだに十分に調査されていない。
本稿では,メモリ構造とメモリ検索手法がLCMエージェントの性能に与える影響について検討する。
具体的には, チャンク, 知識三重項, 原子事実, 要約の4種類のメモリ構造と, これら成分を組み合わせた混合メモリについて評価する。
さらに,1ステップの検索,再ランク付け,反復的な検索という,広く利用されている3つのメモリ検索手法を評価した。
1) 異なるメモリ構造は、特定のタスクに合わせることができる; (2) 混合メモリ構造は、ノイズの多い環境で顕著なレジリエンスを示す; (3) 反復的検索は、様々なシナリオにおいて、他のメソッドよりも一貫して優れている。
本研究の目的は,LSMエージェントのメモリシステム設計に関するさらなる研究を刺激することである。
関連論文リスト
- Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning [41.94295877935867]
メモリRLの総合ベンチマークであるMIKASA(Memory-Intensive Skills Assessment Suite for Agents)を紹介する。
また、テーブルトップロボット操作におけるメモリ能力を評価するために、32個のメモリ集約タスクを慎重に設計したベンチマークであるMIKASA-Roboを開発した。
我々のコントリビューションは、メモリRL研究を進めるための統一的なフレームワークを確立し、現実のアプリケーションのためのより信頼性の高いシステムの開発を推進します。
論文 参考訳(メタデータ) (2025-02-14T20:46:19Z) - On Memory Construction and Retrieval for Personalized Conversational Agents [69.46887405020186]
本稿では,対話モデルを導入し,圧縮メモリ単位に基づいたメモリ検索を行い,話題セグメントを持つメモリバンクを構築するSeComを提案する。
実験結果から, LOCOMOやLong-MT-Bench+のような長期会話ベンチマークにおいて, ターンレベル, セッションレベル, および要約に基づくいくつかの手法よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2025-02-08T14:28:36Z) - Unraveling the Complexity of Memory in RL Agents: an Approach for Classification and Evaluation [39.69790911626182]
強化学習領域(RL)における多数のタスクにおいて、エージェントへのメモリの取り込みが不可欠である
メモリ」という用語は幅広い概念を包含しており、エージェントのメモリを検証するための統一的な方法論が欠如していることと相まって、エージェントのメモリ能力に関する誤った判断につながる。
本稿では,エージェントメモリタイプを正確に定義することで,RLにおけるメモリ概念の合理化を目指す。
論文 参考訳(メタデータ) (2024-12-09T14:34:31Z) - PerLTQA: A Personal Long-Term Memory Dataset for Memory Classification,
Retrieval, and Synthesis in Question Answering [27.815507347725344]
本研究は、意味記憶とエピソード記憶を組み合わせた革新的なQAデータセットであるPerLTQAを紹介する。
PerLTQAは2種類のメモリと、30文字に対して8,593質問のベンチマークを備えている。
本稿では,メモリ分類,メモリ検索,メモリ合成という3つの主要コンポーネントからなる,メモリ統合と生成のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-26T04:09:53Z) - Empowering Working Memory for Large Language Model Agents [9.83467478231344]
本稿では,認知心理学のワーキングメモリフレームワークを大規模言語モデル(LLM)に適用する可能性について検討する。
エピソード間の記憶を維持するために、集中型ワーキングメモリハブとエピソディックバッファアクセスを取り入れた革新的なモデルが提案されている。
このアーキテクチャは、複雑なタスクと協調シナリオの間のニュアンス付きコンテキスト推論に対して、より継続的なものを提供することを目的としている。
論文 参考訳(メタデータ) (2023-12-22T05:59:00Z) - RET-LLM: Towards a General Read-Write Memory for Large Language Models [53.288356721954514]
RET-LLMは、大規模な言語モデルに一般的な読み書きメモリユニットを装備する新しいフレームワークである。
デビッドソンのセマンティクス理論に触発され、三重項の形で知識を抽出し保存する。
本フレームワークは,時間に基づく質問応答タスクの処理において,堅牢な性能を示す。
論文 参考訳(メタデータ) (2023-05-23T17:53:38Z) - Enhancing Large Language Model with Self-Controlled Memory Framework [56.38025154501917]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z) - MeMOT: Multi-Object Tracking with Memory [97.48960039220823]
私たちのモデルはMeMOTと呼ばれ、トランスフォーマーベースの3つの主要モジュールで構成されています。
MeMOTは広く採用されているMOTデータセット上で非常に競争力のあるパフォーマンスを観測する。
論文 参考訳(メタデータ) (2022-03-31T02:33:20Z) - Learning to Learn Variational Semantic Memory [132.39737669936125]
我々はメタラーニングに変分セマンティックメモリを導入し、数ショットラーニングのための長期的知識を得る。
セマンティックメモリはスクラッチから成長し、経験したタスクから情報を吸収することで徐々に統合される。
アドレスコンテンツから潜在記憶変数の変動推論としてメモリリコールを定式化する。
論文 参考訳(メタデータ) (2020-10-20T15:05:26Z) - Self-Attentive Associative Memory [69.40038844695917]
我々は、個々の体験(記憶)とその発生する関係(関連記憶)の記憶を分離することを提案する。
機械学習タスクの多様性において,提案した2メモリモデルと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-02-10T03:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。