論文の概要: Memory GAPS: Would LLM pass the Tulving Test?
- arxiv url: http://arxiv.org/abs/2402.16505v1
- Date: Mon, 26 Feb 2024 11:40:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 13:32:24.991638
- Title: Memory GAPS: Would LLM pass the Tulving Test?
- Title(参考訳): メモリGAPS: LLMはTulving Testをパスするのか?
- Authors: Jean-Marie Chauvet
- Abstract要約: Tulving Testは、認識およびリコールタスクにおけるメモリパフォーマンスを調査するために設計された。
本稿は,44年以上のフレームワークがLLMの記憶行動に光を当てているかどうかを考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The Tulving Test was designed to investigate memory performance in
recognition and recall tasks. Its results help assess the relevance of the
"Synergistic Ecphory Model" of memory and similar RK paradigms in human
performance. This paper starts investigating whether the more than
forty-year-old framework sheds some light on LLMs' acts of remembering.
- Abstract(参考訳): Tulving Testは、認識およびリコールタスクにおけるメモリパフォーマンスを調査するために設計された。
この結果は、記憶の「シンナージスティック・エフォリー・モデル」と類似したrkパラダイムの人間のパフォーマンスとの関連性を評価するのに役立つ。
本稿は,44年以上のフレームワークがLLMの記憶行動に光を当てているかどうかを考察する。
関連論文リスト
- Assessing Episodic Memory in LLMs with Sequence Order Recall Tasks [42.22616978679253]
本稿では,認知心理学におけるエピソード記憶研究の課題から順応する逐次リコールタスク(SORT)を紹介する。
SORTはLLMにテキストセグメントの正しい順序を思い出させる必要があり、拡張が容易で追加のアノテーションを必要としない一般的なフレームワークを提供する。
155人の被験者による人間実験から,本書の長期記憶に基づくシーケンス順序を再現できることが示唆された。
論文 参考訳(メタデータ) (2024-10-10T17:17:38Z) - Schrodinger's Memory: Large Language Models [9.487731634351787]
記憶はすべての人間の活動の基礎である。
LLM(Large Language Models)の開発に伴い、言語能力は人間に匹敵するものになりつつある。
論文 参考訳(メタデータ) (2024-09-16T17:18:11Z) - MemLLM: Finetuning LLMs to Use An Explicit Read-Write Memory [49.96019697955383]
本稿では,構造化および明示的な読み書きメモリモジュールを統合することで,知識能力を向上させる新しい手法であるMemLLMを紹介する。
実験の結果,MemLLMは言語モデリング全般,特に言語モデルにおいて,性能と解釈可能性を向上させることが示唆された。
私たちは MemLLM を,メモリ拡張による LLM の基盤化と現実化に向けた重要なステップと捉えています。
論文 参考訳(メタデータ) (2024-04-17T18:13:16Z) - Memory Traces: Are Transformers Tulving Machines? [0.0]
メモリトレースは1975年にEndel TulvingとMichael J. Watkinsによる先駆的な研究で測定された。
LLMの現在の上位にオリジナルのTulving-Watkinsテストを再考させることは、基礎モデルがこのタイプの心理学モデルを完全にインスタンス化するかどうかを評価するのに役立つかもしれない。
論文 参考訳(メタデータ) (2024-04-12T15:37:35Z) - Large-scale study of human memory for meaningful narratives [0.0]
本研究では,大規模リコールおよび認識メモリ実験のための自然言語モデル(LLM)を用いて,自然主義的物語刺激を設計するパイプラインを開発する。
我々は,多数の参加者とともにオンライン記憶実験を行い,異なるサイズの物語の認識・記憶データを収集した。
論文 参考訳(メタデータ) (2023-11-08T15:11:57Z) - How FaR Are Large Language Models From Agents with Theory-of-Mind? [69.41586417697732]
大規模言語モデル(LLM)に対する新たな評価パラダイムを提案する。
T4Dは、他者の精神状態に関する推論を社会的シナリオにおける行動に結びつけるモデルを必要とする。
ゼロショットプロンプトフレームワークであるフォアシー・アンド・リフレクション(FaR)を導入し,LCMが今後の課題を予測できるように推論構造を提供する。
論文 参考訳(メタデータ) (2023-10-04T06:47:58Z) - Augmenting Language Models with Long-Term Memory [142.04940250657637]
既存の大規模言語モデル(LLM)では、入力長制限のため、固定サイズの入力しかできない。
本稿では,Long-Term Memory (LongMem) を付加した言語モデルを提案する。
論文 参考訳(メタデータ) (2023-06-12T15:13:39Z) - MoT: Memory-of-Thought Enables ChatGPT to Self-Improve [73.90376920653507]
我々は,注釈付きデータセットやパラメータ更新を使わずに,大規模言語モデルによる自己改善を実現するためのフレームワークであるMemory-of-Thoughtを提案する。
実験結果から,算術的推論,常識推論,事実推論,自然言語推論において,ChatGPTの能力向上に寄与することが示唆された。
論文 参考訳(メタデータ) (2023-05-09T05:25:05Z) - Self-Attentive Associative Memory [69.40038844695917]
我々は、個々の体験(記憶)とその発生する関係(関連記憶)の記憶を分離することを提案する。
機械学習タスクの多様性において,提案した2メモリモデルと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-02-10T03:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。