論文の概要: RecallM: An Adaptable Memory Mechanism with Temporal Understanding for
Large Language Models
- arxiv url: http://arxiv.org/abs/2307.02738v3
- Date: Tue, 3 Oct 2023 01:16:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 07:53:41.101426
- Title: RecallM: An Adaptable Memory Mechanism with Temporal Understanding for
Large Language Models
- Title(参考訳): RecallM: 大規模言語モデルに対する時間的理解を伴う適応型記憶機構
- Authors: Brandon Kynoch, Hugo Latapie, Dwane van der Sluis
- Abstract要約: RecallMは、適応可能で拡張可能な長期記憶機構を備えた大規模言語モデルを提供するための新しいアーキテクチャである。
RecallM は,長期記憶に格納された知識を更新するためのベクトルデータベースよりも 4 倍有効であることを示す。
また、RecallMは、一般的な質問応答およびコンテキスト内学習タスクにおいて、競合性能を示すことを示した。
- 参考スコア(独自算出の注目度): 3.9770715318303353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have made extraordinary progress in the field of
Artificial Intelligence and have demonstrated remarkable capabilities across a
large variety of tasks and domains. However, as we venture closer to creating
Artificial General Intelligence (AGI) systems, we recognize the need to
supplement LLMs with long-term memory to overcome the context window limitation
and more importantly, to create a foundation for sustained reasoning,
cumulative learning and long-term user interaction. In this paper we propose
RecallM, a novel architecture for providing LLMs with an adaptable and
updatable long-term memory mechanism. Unlike previous methods, the RecallM
architecture is particularly effective at belief updating and maintaining a
temporal understanding of the knowledge provided to it. We demonstrate through
various experiments the effectiveness of this architecture. Furthermore,
through our own temporal understanding and belief updating experiments, we show
that RecallM is four times more effective than using a vector database for
updating knowledge previously stored in long-term memory. We also demonstrate
that RecallM shows competitive performance on general question-answering and
in-context learning tasks.
- Abstract(参考訳): 大規模言語モデル(LLM)は人工知能の分野で驚くべき進歩を遂げており、様々なタスクや領域にまたがる優れた能力を示している。
しかし、人工知能(agi)システムの開発に近付くにつれて、コンテキストウインドウの制限を克服するためにllmを長期記憶で補う必要性が認識され、さらに重要なこととして、継続的な推論、累積学習、長期ユーザインタラクションの基礎を作る必要がある。
本稿では,LLMに適応可能な長期記憶機構を備えた新しいアーキテクチャであるRecallMを提案する。
従来の手法とは異なり、RecallMアーキテクチャは特に、それに提供する知識の時間的理解の更新と維持に有効である。
このアーキテクチャの有効性を様々な実験で実証する。
さらに、我々の時間的理解と信念更新実験により、RecallMは長期記憶に格納された知識を更新するためのベクトルデータベースよりも4倍有効であることを示す。
また、RecallMは、一般的な質問応答およびコンテキスト内学習タスクにおいて競合性能を示すことを示した。
関連論文リスト
- Human-inspired Perspectives: A Survey on AI Long-term Memory [46.33545299110207]
本稿では,人間の長期記憶機構を紹介し,その後,AIによる長期記憶機構について検討する。
自己適応型長期記憶(SALM)の認知アーキテクチャを提案する。
SALMは、AI長期記憶の実践のための理論的フレームワークを提供し、次世代の長期記憶駆動型AIシステムの開発を導く可能性を秘めている。
論文 参考訳(メタデータ) (2024-11-01T10:04:01Z) - Stable Hadamard Memory: Revitalizing Memory-Augmented Agents for Reinforcement Learning [64.93848182403116]
現在のディープラーニングメモリモデルは、部分的に観察可能で長期にわたる強化学習環境で苦労している。
本稿では,強化学習エージェントのための新しい記憶モデルであるStable Hadamard Memoryを紹介する。
我々の手法は、部分的に観測可能なベンチマークに挑戦する上で、最先端のメモリベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T03:50:17Z) - Hello Again! LLM-powered Personalized Agent for Long-term Dialogue [63.65128176360345]
モデルに依存しない長期対話エージェント(LD-Agent)を導入する。
イベント認識、ペルソナ抽出、応答生成のための3つの独立した調整可能なモジュールが組み込まれている。
LD-Agentの有効性, 汎用性, クロスドメイン性について実験的に検証した。
論文 参考訳(メタデータ) (2024-06-09T21:58:32Z) - A Survey on the Memory Mechanism of Large Language Model based Agents [66.4963345269611]
大規模言語モデル(LLM)に基づくエージェントは、最近、研究や産業コミュニティから多くの注目を集めている。
LLMベースのエージェントは、現実の問題を解決する基礎となる自己進化能力に特徴付けられる。
エージェント-環境相互作用をサポートする重要なコンポーネントは、エージェントのメモリである。
論文 参考訳(メタデータ) (2024-04-21T01:49:46Z) - RAM: Towards an Ever-Improving Memory System by Learning from Communications [32.904507659027516]
本稿では,RAMと呼ばれるメモリを改良した革新的なRAGベースのフレームワークを提案する。
シミュレーションと実ユーザの両方による実験は、従来のRAG法や自己知識法よりも大幅に改善されている。
RAMは、様々なフィードバックと検索方法への有望な適応性を示し、動的知識獲得と生涯学習におけるAI能力の進歩の可能性を示している。
論文 参考訳(メタデータ) (2024-04-18T09:58:51Z) - MemLLM: Finetuning LLMs to Use An Explicit Read-Write Memory [49.96019697955383]
本稿では,構造化および明示的な読み書きメモリモジュールを統合することで,知識能力を向上させる新しい手法であるMemLLMを紹介する。
実験の結果,MemLLMは言語モデリング全般,特に言語モデルにおいて,性能と解釈可能性を向上させることが示唆された。
私たちは MemLLM を,メモリ拡張による LLM の基盤化と現実化に向けた重要なステップと捉えています。
論文 参考訳(メタデータ) (2024-04-17T18:13:16Z) - Memory Sharing for Large Language Model based Agents [43.53494041932615]
本稿では,リアルタイムメモリフィルタ,ストレージ,検索を統合し,In-Context学習プロセスを強化するためのフレームワークであるMemory Sharingを紹介する。
実験の結果,MSフレームワークはオープンな質問に対処する際のエージェントの性能を大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-04-15T17:57:30Z) - Empowering Working Memory for Large Language Model Agents [9.83467478231344]
本稿では,認知心理学のワーキングメモリフレームワークを大規模言語モデル(LLM)に適用する可能性について検討する。
エピソード間の記憶を維持するために、集中型ワーキングメモリハブとエピソディックバッファアクセスを取り入れた革新的なモデルが提案されている。
このアーキテクチャは、複雑なタスクと協調シナリオの間のニュアンス付きコンテキスト推論に対して、より継続的なものを提供することを目的としている。
論文 参考訳(メタデータ) (2023-12-22T05:59:00Z) - RET-LLM: Towards a General Read-Write Memory for Large Language Models [53.288356721954514]
RET-LLMは、大規模な言語モデルに一般的な読み書きメモリユニットを装備する新しいフレームワークである。
デビッドソンのセマンティクス理論に触発され、三重項の形で知識を抽出し保存する。
本フレームワークは,時間に基づく質問応答タスクの処理において,堅牢な性能を示す。
論文 参考訳(メタデータ) (2023-05-23T17:53:38Z) - Enhancing Large Language Model with Self-Controlled Memory Framework [56.38025154501917]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。