論文の概要: Memory-Augmented Architecture for Long-Term Context Handling in Large Language Models
- arxiv url: http://arxiv.org/abs/2506.18271v1
- Date: Mon, 23 Jun 2025 03:57:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.843314
- Title: Memory-Augmented Architecture for Long-Term Context Handling in Large Language Models
- Title(参考訳): 大規模言語モデルにおける長期コンテキスト処理のためのメモリ拡張アーキテクチャ
- Authors: Haseeb Ullah Khan Shinwari, Muhammad Usama,
- Abstract要約: 大規模言語モデルは、文脈記憶が限られているため、拡張された対話よりもコヒーレントな相互作用を維持することの難しさに直面します。
本稿では,過去のインタラクションから関連情報を動的に取得し,更新し,蓄積するメモリ拡張アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models face significant challenges in maintaining coherent interactions over extended dialogues due to their limited contextual memory. This limitation often leads to fragmented exchanges and reduced relevance in responses, diminishing user experience. To address these issues, we propose a memory-augmented architecture that dynamically retrieves, updates, and prunes relevant information from past interactions, ensuring effective long-term context handling. Experimental results demonstrate that our solution significantly improves contextual coherence, reduces memory overhead, and enhances response quality, showcasing its potential for real-time applications in interactive systems.
- Abstract(参考訳): 大規模言語モデルは、文脈記憶に制限があるため、拡張された対話よりもコヒーレントな相互作用を維持する上で大きな課題に直面している。
この制限は、しばしば断片化された交換と応答の関連性を減少させ、ユーザーエクスペリエンスを低下させる。
これらの問題に対処するために、過去のインタラクションから関連情報を動的に取得、更新、取得し、効果的な長期コンテキストハンドリングを保証するメモリ拡張アーキテクチャを提案する。
実験結果から,本ソリューションはコンテキストコヒーレンスを大幅に改善し,メモリオーバーヘッドを低減し,応答品質を向上し,対話型システムにおけるリアルタイムアプリケーションの可能性を示す。
関連論文リスト
- FindingDory: A Benchmark to Evaluate Memory in Embodied Agents [49.89792845476579]
本研究では,Habitatシミュレータに長距離エンボディタスクのための新しいベンチマークを導入する。
このベンチマークは、持続的なエンゲージメントとコンテキスト認識を必要とする60タスクにわたるメモリベースの機能を評価する。
論文 参考訳(メタデータ) (2025-06-18T17:06:28Z) - Structured Memory Mechanisms for Stable Context Representation in Large Language Models [16.929937978584917]
モデルは明示的なメモリユニット、ゲート書き込み機構、アテンションベースの読み込みモジュールを統合している。
メモリコンテンツの動的更新を可能にするために、忘れ機能が導入される。
このモデルは、テキスト生成の一貫性、マルチターン質問応答の安定性、コンテキスト間推論の精度において明らかな優位性を実現する。
論文 参考訳(メタデータ) (2025-05-28T22:49:04Z) - Towards Multi-Granularity Memory Association and Selection for Long-Term Conversational Agents [73.77930932005354]
我々は,多粒度アソシエーション,適応選択,検索を構築することで,メモリ統合を向上するフレームワークであるMemGASを提案する。
MemGASは多粒度メモリユニットに基づいており、ガウス混合モデルを用いて新しい記憶と過去の記憶をクラスタリングし関連付けている。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - In Prospect and Retrospect: Reflective Memory Management for Long-term Personalized Dialogue Agents [70.12342024019044]
大規模言語モデル(LLM)は、オープンエンド対話において大きな進歩を遂げているが、関連する情報の保持と取得ができないため、その有効性は制限されている。
本稿では,長期対話エージェントのための新しいメカニズムであるリフレクティブメモリ管理(RMM)を提案する。
RMMは、LongMemEvalデータセットのメモリ管理なしでベースラインよりも10%以上精度が向上している。
論文 参考訳(メタデータ) (2025-03-11T04:15:52Z) - Contextual Memory Reweaving in Large Language Models Using Layered Latent State Reconstruction [0.0]
シーケンスの長さが増加するにつれて、トークン依存は低下し、一貫性と事実整合性が低下する。
異なる処理層でキャプチャされた潜伏状態の再織り直しを通じてこの問題を軽減するための構造化されたアプローチが導入された。
提案されたContextual Memory Reweavingフレームワークには、Lambed Latent State Restructationメカニズムが組み込まれている。
論文 参考訳(メタデータ) (2025-02-04T06:25:20Z) - Towards Lifelong Dialogue Agents via Timeline-based Memory Management [26.95907827895548]
本稿では,生涯対話エージェントのフレームワークであるTheANINEを紹介する。
TheANINEはメモリ除去を破棄し、その時間的および原因=効果の関係に基づいてそれらをリンクすることで大規模な記憶を管理する。
TheANINEとともに、反ファクト駆動評価方式であるTeaFarmを紹介する。
論文 参考訳(メタデータ) (2024-06-16T16:17:46Z) - Evaluating Very Long-Term Conversational Memory of LLM Agents [95.84027826745609]
我々は,高品質で長期的な対話を生成するための,マシン・ヒューマン・パイプラインを導入する。
我々は、各エージェントに画像の共有と反応の能力を持たせる。
生成した会話は、長距離一貫性のために人間のアノテーションによって検証され、編集される。
論文 参考訳(メタデータ) (2024-02-27T18:42:31Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - Ranking Enhanced Dialogue Generation [77.8321855074999]
対話履歴を効果的に活用する方法は、マルチターン対話生成において重要な問題である。
これまでの研究は通常、歴史をモデル化するために様々なニューラルネットワークアーキテクチャを使用していた。
本稿では,ランキング拡張対話生成フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-13T01:49:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。