論文の概要: Semantic Anchoring in Agentic Memory: Leveraging Linguistic Structures for Persistent Conversational Context
- arxiv url: http://arxiv.org/abs/2508.12630v1
- Date: Mon, 18 Aug 2025 05:14:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.976836
- Title: Semantic Anchoring in Agentic Memory: Leveraging Linguistic Structures for Persistent Conversational Context
- Title(参考訳): エージェント記憶における意味的アンコリング:永続的会話文脈における言語構造を活用する
- Authors: Maitreyi Chatterjee, Devansh Agarwal,
- Abstract要約: 本稿では,ベクトルベースストレージを明示的な言語的手がかりで強化し,ニュアンス付きコンテキスト豊富な交換のリコールを改善するハイブリッド型エージェントメモリアーキテクチャを提案する。
適応した長期対話データセットの実験では、意味的アンカーがRAGベースラインよりも最大18%、事実的リコールと談話のコヒーレンスを改善することが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated impressive fluency and task competence in conversational settings. However, their effectiveness in multi-session and long-term interactions is hindered by limited memory persistence. Typical retrieval-augmented generation (RAG) systems store dialogue history as dense vectors, which capture semantic similarity but neglect finer linguistic structures such as syntactic dependencies, discourse relations, and coreference links. We propose Semantic Anchoring, a hybrid agentic memory architecture that enriches vector-based storage with explicit linguistic cues to improve recall of nuanced, context-rich exchanges. Our approach combines dependency parsing, discourse relation tagging, and coreference resolution to create structured memory entries. Experiments on adapted long-term dialogue datasets show that semantic anchoring improves factual recall and discourse coherence by up to 18% over strong RAG baselines. We further conduct ablation studies, human evaluations, and error analysis to assess robustness and interpretability.
- Abstract(参考訳): 大規模言語モデル(LLM)は、会話環境における顕著な流速とタスク能力を示している。
しかし、マルチセッションと長期の相互作用におけるそれらの効果は、限られたメモリ持続性によって妨げられる。
典型的な検索拡張生成システム(RAG)は、対話履歴を密接なベクトルとして格納し、意味的類似性をキャプチャするが、構文依存、談話関係、コア参照リンクのようなより微細な言語構造を無視する。
本稿では,ベクトルベースストレージを明示的な言語的手がかりで強化し,ニュアンスやコンテキストに富んだ交換のリコールを改善するハイブリッドエージェントメモリアーキテクチャであるSemantic Anchoringを提案する。
我々のアプローチは、依存関係解析、談話関係タグ付け、コア参照解決を組み合わせ、構造化メモリエントリを作成します。
適応した長期対話データセットの実験では、意味的アンカーがRAGベースラインよりも最大18%、事実的リコールと談話のコヒーレンスを改善することが示されている。
我々はさらに、堅牢性と解釈可能性を評価するために、アブレーション研究、人的評価、エラー分析を行う。
関連論文リスト
- Structured Memory Mechanisms for Stable Context Representation in Large Language Models [16.929937978584917]
モデルは明示的なメモリユニット、ゲート書き込み機構、アテンションベースの読み込みモジュールを統合している。
メモリコンテンツの動的更新を可能にするために、忘れ機能が導入される。
このモデルは、テキスト生成の一貫性、マルチターン質問応答の安定性、コンテキスト間推論の精度において明らかな優位性を実現する。
論文 参考訳(メタデータ) (2025-05-28T22:49:04Z) - DISRetrieval: Harnessing Discourse Structure for Long Document Retrieval [51.89673002051528]
DISRetrievalは、言語談話構造を利用して長い文書理解を強化する新しい階層的検索フレームワークである。
本研究は,談話構造が文書の長さや問合せの種類によって検索効率を著しく向上することを確認する。
論文 参考訳(メタデータ) (2025-05-26T14:45:12Z) - Enhancing Dialogue Systems with Discourse-Level Understanding Using Deep Canonical Correlation Analysis [0.0]
談話レベルの理解のために,Deep Canonical correlation Analysisを統合した新しいフレームワークを提案する。
このフレームワークは会話トークンを学習し、発話と周囲の文脈の関係を捉える。
Ubuntuダイアログコーパスの実験では、応答選択の大幅な向上が示されている。
論文 参考訳(メタデータ) (2025-04-12T06:19:08Z) - A Multi-view Discourse Framework for Integrating Semantic and Syntactic Features in Dialog Agents [0.0]
マルチターン対話モデルは,会話の文脈を利用して人間的な応答を生成することを目的としている。
既存の手法はしばしばこれらの発話間の相互作用を無視したり、それら全てを等しく重要なものとして扱う。
本稿では,検索に基づく対話システムにおける応答選択のための談話認識フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-12T04:22:18Z) - In Prospect and Retrospect: Reflective Memory Management for Long-term Personalized Dialogue Agents [70.12342024019044]
大規模言語モデル(LLM)は、オープンエンド対話において大きな進歩を遂げているが、関連する情報の保持と取得ができないため、その有効性は制限されている。
本稿では,長期対話エージェントのための新しいメカニズムであるリフレクティブメモリ管理(RMM)を提案する。
RMMは、LongMemEvalデータセットのメモリ管理なしでベースラインよりも10%以上精度が向上している。
論文 参考訳(メタデータ) (2025-03-11T04:15:52Z) - Revisiting Conversation Discourse for Dialogue Disentanglement [88.3386821205896]
本稿では,対話談話特性を最大限に活用し,対話の絡み合いを高めることを提案する。
我々は,会話の意味的文脈をより良くモデル化するために,リッチな構造的特徴を統合する構造認識フレームワークを開発した。
我々の研究は、より広範なマルチスレッド対話アプリケーションを促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-06T19:17:47Z) - Learning to Memorize Entailment and Discourse Relations for
Persona-Consistent Dialogues [8.652711997920463]
既存の作業は、高度ネットワーク構造を持つ対話者ペルソナを意図的に学習することで、対話システムの性能を改善した。
本研究は,ペルソナ一貫性のある対話課題における係り受け関係と談話関係を記憶する学習方法を提案する。
論文 参考訳(メタデータ) (2023-01-12T08:37:00Z) - DialogueCSE: Dialogue-based Contrastive Learning of Sentence Embeddings [33.89889949577356]
本稿では,対話型コントラスト学習手法であるDialogueCSEを提案する。
我々は,Microsoft Dialogue Corpus,Jing Dong Dialogue Corpus,E-Commerce Dialogue Corpusの3つの多ターン対話データセットについて評価を行った。
論文 参考訳(メタデータ) (2021-09-26T13:25:41Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z) - Ranking Enhanced Dialogue Generation [77.8321855074999]
対話履歴を効果的に活用する方法は、マルチターン対話生成において重要な問題である。
これまでの研究は通常、歴史をモデル化するために様々なニューラルネットワークアーキテクチャを使用していた。
本稿では,ランキング拡張対話生成フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-13T01:49:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。