論文の概要: Memory-Augmented Architecture for Long-Term Context Handling in Large Language Models
- arxiv url: http://arxiv.org/abs/2506.18271v1
- Date: Mon, 23 Jun 2025 03:57:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.843314
- Title: Memory-Augmented Architecture for Long-Term Context Handling in Large Language Models
- Title(参考訳): 大規模言語モデルにおける長期コンテキスト処理のためのメモリ拡張アーキテクチャ
- Authors: Haseeb Ullah Khan Shinwari, Muhammad Usama,
- Abstract要約: 大規模言語モデルは、文脈記憶が限られているため、拡張された対話よりもコヒーレントな相互作用を維持することの難しさに直面します。
本稿では,過去のインタラクションから関連情報を動的に取得し,更新し,蓄積するメモリ拡張アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models face significant challenges in maintaining coherent interactions over extended dialogues due to their limited contextual memory. This limitation often leads to fragmented exchanges and reduced relevance in responses, diminishing user experience. To address these issues, we propose a memory-augmented architecture that dynamically retrieves, updates, and prunes relevant information from past interactions, ensuring effective long-term context handling. Experimental results demonstrate that our solution significantly improves contextual coherence, reduces memory overhead, and enhances response quality, showcasing its potential for real-time applications in interactive systems.
- Abstract(参考訳): 大規模言語モデルは、文脈記憶に制限があるため、拡張された対話よりもコヒーレントな相互作用を維持する上で大きな課題に直面している。
この制限は、しばしば断片化された交換と応答の関連性を減少させ、ユーザーエクスペリエンスを低下させる。
これらの問題に対処するために、過去のインタラクションから関連情報を動的に取得、更新、取得し、効果的な長期コンテキストハンドリングを保証するメモリ拡張アーキテクチャを提案する。
実験結果から,本ソリューションはコンテキストコヒーレンスを大幅に改善し,メモリオーバーヘッドを低減し,応答品質を向上し,対話型システムにおけるリアルタイムアプリケーションの可能性を示す。
関連論文リスト
- AMA: Adaptive Memory via Multi-Agent Collaboration [54.490349689939166]
複数の粒度にまたがるメモリ管理に協調エージェントを活用する新しいフレームワークであるAMA(Adaptive Memory via Multi-Agent Collaboration)を提案する。
AMAは、ステート・オブ・ザ・アートのベースラインを著しく上回り、トークンの消費をフルコンテキストの手法と比べて約80%削減する。
論文 参考訳(メタデータ) (2026-01-28T08:09:49Z) - MemWeaver: Weaving Hybrid Memories for Traceable Long-Horizon Agentic Reasoning [26.119505362626338]
本稿では,長期エージェント体験を3つの相互接続コンポーネントに集約する統合メモリフレームワークを提案する。
MemWeaverは、構造化された知識を共同で検索し、エビデンスをサポートし、コンパクトで情報密度の高いコンテキストを構築するデュアルチャネル検索戦略を採用している。
論文 参考訳(メタデータ) (2026-01-26T06:39:27Z) - The AI Hippocampus: How Far are We From Human Memory? [77.04745635827278]
インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。
明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。
エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
論文 参考訳(メタデータ) (2026-01-14T03:24:08Z) - Amory: Building Coherent Narrative-Driven Agent Memory through Agentic Reasoning [14.368376032599437]
Amoryは、オフライン時に構造化されたメモリ表現を積極的に構築するワーキングメモリフレームワークである。
アモリーは会話の断片を叙事詩の物語に整理し、記憶を運動量と統合し、周辺事実を意味記憶に意味づける。
Amoryは従来の最先端よりも大幅に改善され、パフォーマンスは完全なコンテキスト推論に匹敵し、レスポンスタイムを50%削減した。
論文 参考訳(メタデータ) (2026-01-09T19:51:11Z) - Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - Semantic Anchoring in Agentic Memory: Leveraging Linguistic Structures for Persistent Conversational Context [0.0]
本稿では,ベクトルベースストレージを明示的な言語的手がかりで強化し,ニュアンス付きコンテキスト豊富な交換のリコールを改善するハイブリッド型エージェントメモリアーキテクチャを提案する。
適応した長期対話データセットの実験では、意味的アンカーがRAGベースラインよりも最大18%、事実的リコールと談話のコヒーレンスを改善することが示されている。
論文 参考訳(メタデータ) (2025-08-18T05:14:48Z) - LoopServe: An Adaptive Dual-phase LLM Inference Acceleration System for Multi-Turn Dialogues [59.12542274007847]
LoopServeは、多ターン対話における大規模言語モデルのための適応的な二相推論フレームワークである。
LoopServeは、既存のベースラインに比べて一貫して優れた効率を実現している。
論文 参考訳(メタデータ) (2025-07-18T06:12:08Z) - UniConv: Unifying Retrieval and Response Generation for Large Language Models in Conversations [71.79210031338464]
会話における大規模言語モデルに対する高密度検索と応答生成の統一方法を示す。
目的の異なる共同微調整を行い、不整合リスクを低減するための2つのメカニズムを設計する。
5つの対話型検索データセットの評価は、我々の統合モデルがタスクを相互に改善し、既存のベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2025-07-09T17:02:40Z) - FindingDory: A Benchmark to Evaluate Memory in Embodied Agents [49.89792845476579]
本研究では,Habitatシミュレータに長距離エンボディタスクのための新しいベンチマークを導入する。
このベンチマークは、持続的なエンゲージメントとコンテキスト認識を必要とする60タスクにわたるメモリベースの機能を評価する。
論文 参考訳(メタデータ) (2025-06-18T17:06:28Z) - Structured Memory Mechanisms for Stable Context Representation in Large Language Models [16.929937978584917]
モデルは明示的なメモリユニット、ゲート書き込み機構、アテンションベースの読み込みモジュールを統合している。
メモリコンテンツの動的更新を可能にするために、忘れ機能が導入される。
このモデルは、テキスト生成の一貫性、マルチターン質問応答の安定性、コンテキスト間推論の精度において明らかな優位性を実現する。
論文 参考訳(メタデータ) (2025-05-28T22:49:04Z) - Towards Multi-Granularity Memory Association and Selection for Long-Term Conversational Agents [73.77930932005354]
我々は,多粒度アソシエーション,適応選択,検索を構築することで,メモリ統合を向上するフレームワークであるMemGASを提案する。
MemGASは多粒度メモリユニットに基づいており、ガウス混合モデルを用いて新しい記憶と過去の記憶をクラスタリングし関連付けている。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - In Prospect and Retrospect: Reflective Memory Management for Long-term Personalized Dialogue Agents [70.12342024019044]
大規模言語モデル(LLM)は、オープンエンド対話において大きな進歩を遂げているが、関連する情報の保持と取得ができないため、その有効性は制限されている。
本稿では,長期対話エージェントのための新しいメカニズムであるリフレクティブメモリ管理(RMM)を提案する。
RMMは、LongMemEvalデータセットのメモリ管理なしでベースラインよりも10%以上精度が向上している。
論文 参考訳(メタデータ) (2025-03-11T04:15:52Z) - Contextual Memory Reweaving in Large Language Models Using Layered Latent State Reconstruction [0.0]
シーケンスの長さが増加するにつれて、トークン依存は低下し、一貫性と事実整合性が低下する。
異なる処理層でキャプチャされた潜伏状態の再織り直しを通じてこの問題を軽減するための構造化されたアプローチが導入された。
提案されたContextual Memory Reweavingフレームワークには、Lambed Latent State Restructationメカニズムが組み込まれている。
論文 参考訳(メタデータ) (2025-02-04T06:25:20Z) - QRMeM: Unleash the Length Limitation through Question then Reflection Memory Mechanism [46.441032033076034]
メモリメカニズムは、長いコンテキストを管理するための柔軟なソリューションを提供する。
本稿では,二重構造メモリプールを組み込んだ新しい手法であるQRMeMを提案する。
マルチチョイス質問 (MCQ) とマルチドキュメント質問応答 (Multi-doc QA) のベンチマークによる評価では,既存手法と比較してQRMeMの性能が向上している。
論文 参考訳(メタデータ) (2024-06-19T02:46:18Z) - Towards Lifelong Dialogue Agents via Timeline-based Memory Management [26.95907827895548]
本稿では,生涯対話エージェントのフレームワークであるTheANINEを紹介する。
TheANINEはメモリ除去を破棄し、その時間的および原因=効果の関係に基づいてそれらをリンクすることで大規模な記憶を管理する。
TheANINEとともに、反ファクト駆動評価方式であるTeaFarmを紹介する。
論文 参考訳(メタデータ) (2024-06-16T16:17:46Z) - Ever-Evolving Memory by Blending and Refining the Past [30.63352929849842]
CREEMは長期会話のための新しい記憶システムである。
過去と現在の情報をシームレスに接続すると同時に、障害情報を忘れる能力も備えている。
論文 参考訳(メタデータ) (2024-03-03T08:12:59Z) - Evaluating Very Long-Term Conversational Memory of LLM Agents [95.84027826745609]
我々は,高品質で長期的な対話を生成するための,マシン・ヒューマン・パイプラインを導入する。
我々は、各エージェントに画像の共有と反応の能力を持たせる。
生成した会話は、長距離一貫性のために人間のアノテーションによって検証され、編集される。
論文 参考訳(メタデータ) (2024-02-27T18:42:31Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - Ranking Enhanced Dialogue Generation [77.8321855074999]
対話履歴を効果的に活用する方法は、マルチターン対話生成において重要な問題である。
これまでの研究は通常、歴史をモデル化するために様々なニューラルネットワークアーキテクチャを使用していた。
本稿では,ランキング拡張対話生成フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-13T01:49:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。