論文の概要: Wormhole Memory: A Rubik's Cube for Cross-Dialogue Retrieval
- arxiv url: http://arxiv.org/abs/2501.14846v3
- Date: Tue, 25 Feb 2025 09:19:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:20:17.003896
- Title: Wormhole Memory: A Rubik's Cube for Cross-Dialogue Retrieval
- Title(参考訳): ワームホール記憶:クロスダイアログ検索のためのルービックキューブ
- Authors: Libo Wang,
- Abstract要約: 本研究では,異なる対話間で任意に検索可能なルービックキューブとしてメモリを実現するワームホールメモリモジュール(WMM)を提案する。
実験結果から,WMMは対話間のメモリ取得能力と定量的指標の安定性を示した。
- 参考スコア(独自算出の注目度): 4.586907225774023
- License:
- Abstract: In view of the gap in the current large language model in sharing memory across dialogues, this research proposes a wormhole memory module (WMM) to realize memory as a Rubik's cube that can be arbitrarily retrieved between different dialogues. Through simulation experiments, the researcher built an experimental framework based on the Python environment and used setting memory barriers to simulate the current situation where memories between LLMs dialogues are difficult to share. The CoQA development data set was imported into the experiment, and the feasibility of its cross-dialogue memory retrieval function was verified for WMM's nonlinear indexing and dynamic retrieval, and a comparative analysis was conducted with the capabilities of Titans and MemGPT memory modules. Experimental results show that WMM demonstrated the ability to retrieve memory across dialogues and the stability of quantitative indicators in eight experiments. It contributes new technical approaches to the optimization of memory management of LLMs and provides experience for the practical application in the future.
- Abstract(参考訳): ダイアログ間のメモリ共有における現在の大きな言語モデルのギャップを考慮し、異なるダイアログ間で任意に検索できるルービックキューブとしてメモリを実現するワームホールメモリモジュール(WMM)を提案する。
シミュレーション実験を通じて,LLM間のメモリ共有が困難である現状をシミュレートするために,Python環境に基づいた実験的なフレームワークを構築した。
The CoQA development data set was import into the experiment, and the proability of its cross-dialogue memory search function was confirmed for WMM's non indexing and dynamic search, and a comparative analysis with the ability of Titans and MemGPT memory module。
実験の結果、WMMは8つの実験において、対話間で記憶を回復する能力と定量指標の安定性を示した。
LLMのメモリ管理の最適化に新たな技術的アプローチを提供し、将来、実用的なアプリケーションに経験を提供する。
関連論文リスト
- On Memory Construction and Retrieval for Personalized Conversational Agents [69.46887405020186]
本稿では,対話モデルを導入し,圧縮メモリ単位に基づいたメモリ検索を行い,話題セグメントを持つメモリバンクを構築するSeComを提案する。
実験結果から, LOCOMOやLong-MT-Bench+のような長期会話ベンチマークにおいて, ターンレベル, セッションレベル, および要約に基づくいくつかの手法よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2025-02-08T14:28:36Z) - On the Structural Memory of LLM Agents [20.529239764968654]
メモリは、大規模言語モデル(LLM)ベースのエージェントが複雑で長期的な相互作用を行えるようにするための重要な役割を担っている。
本稿では,メモリ構造とメモリ検索手法がLCMエージェントの性能に与える影響について検討する。
論文 参考訳(メタデータ) (2024-12-17T04:30:00Z) - MemLLM: Finetuning LLMs to Use An Explicit Read-Write Memory [49.96019697955383]
本稿では,構造化および明示的な読み書きメモリモジュールを統合することで,大規模言語モデル(LLM)の拡張手法であるMemLLMを紹介する。
実験の結果, 言語モデリング, 特に知識集約型タスクにおいて, MemLLMはLLMの性能と解釈可能性を向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-17T18:13:16Z) - Online Adaptation of Language Models with a Memory of Amortized Contexts [82.02369596879817]
MAC(Memory of Amortized Contexts)は、大規模言語モデルのための効率的かつ効果的なオンライン適応フレームワークである。
MACとMACを組み合わせれば,検索の高速化など,一般的な代替手段の性能が向上することを示す。
論文 参考訳(メタデータ) (2024-03-07T08:34:57Z) - Compress to Impress: Unleashing the Potential of Compressive Memory in Real-World Long-Term Conversations [39.05338079159942]
本研究は,従来の検索モジュールやメモリデータベースを活用する新しいフレームワークであるCOMEDY(Commpressive Memory-Enhanced Dialogue sYstems)を紹介する。
COMEDYの中心は圧縮メモリの概念であり、セッション固有の要約、ユーザー・ボットのダイナミクス、過去のイベントを簡潔なメモリ形式に解釈する。
論文 参考訳(メタデータ) (2024-02-19T09:19:50Z) - Memory-Inspired Temporal Prompt Interaction for Text-Image
Classification [13.449375069856684]
我々は、人間の記憶戦略、すなわちメモリインスパイアされたテンポラルプロンプトインタラクション(MITP)にインスパイアされた、新しいプロンプトベースのマルチモーダルインタラクション戦略を提案する。
我々は、中間層上の時間的プロンプトを利用して取得段階を模倣し、類似性に基づくプロンプト相互作用を利用してメモリ統合を模倣し、メモリアクティベーションを模倣するプロンプト生成戦略を採用する。
比較的少ないメモリ使用量とトレーニング可能なパラメータの2.0Mのデータセットで競合する結果が得られる。
論文 参考訳(メタデータ) (2024-01-26T13:36:12Z) - Empowering Working Memory for Large Language Model Agents [9.83467478231344]
本稿では,認知心理学のワーキングメモリフレームワークを大規模言語モデル(LLM)に適用する可能性について検討する。
エピソード間の記憶を維持するために、集中型ワーキングメモリハブとエピソディックバッファアクセスを取り入れた革新的なモデルが提案されている。
このアーキテクチャは、複雑なタスクと協調シナリオの間のニュアンス付きコンテキスト推論に対して、より継続的なものを提供することを目的としている。
論文 参考訳(メタデータ) (2023-12-22T05:59:00Z) - MemGPT: Towards LLMs as Operating Systems [50.02623936965231]
大規模言語モデル(LLM)はAIに革命をもたらしたが、限られたコンテキストウィンドウによって制約されている。
従来のオペレーティングシステムにおける階層型メモリシステムからのインスピレーションを引き出す技術である仮想コンテキスト管理を提案する。
私たちはMemGPTコードと実験のためのデータをhttps://memgpt.ai.comでリリースします。
論文 参考訳(メタデータ) (2023-10-12T17:51:32Z) - Recursively Summarizing Enables Long-Term Dialogue Memory in Large
Language Models [75.98775135321355]
長い会話をすると、大きな言語モデル(LLM)は過去の情報を思い出さず、一貫性のない応答を生成する傾向がある。
本稿では,長期記憶能力を高めるために,大規模言語モデル(LLM)を用いて要約/メモリを生成することを提案する。
論文 参考訳(メタデータ) (2023-08-29T04:59:53Z) - Enhancing Large Language Model with Self-Controlled Memory Framework [56.38025154501917]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。