論文の概要: DYCP: Dynamic Context Pruning for Long-Form Dialogue with LLMs
- arxiv url: http://arxiv.org/abs/2601.07994v2
- Date: Wed, 14 Jan 2026 15:26:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 14:49:41.188736
- Title: DYCP: Dynamic Context Pruning for Long-Form Dialogue with LLMs
- Title(参考訳): DYCP: LLMを用いた長期対話のための動的コンテキストプラニング
- Authors: Nayoung Choi, Jonathan Zhang, Jinho D. Choi,
- Abstract要約: 大きな言語モデル(LLM)は、対話の長さが大きくなるにつれて応答遅延が増加し、応答品質が低下する。
我々は,クエリ時に関連メモリを動的に分割・取得する,軽量なコンテキスト管理手法であるDyCPを紹介する。
- 参考スコア(独自算出の注目度): 8.451732843394973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) often exhibit increased response latency and degraded answer quality as dialogue length grows, making effective context management essential. However, existing methods rely on extra LLM calls to build memory or perform offline memory construction without considering the current user utterance, which can introduce inefficiencies or disrupt conversational continuity. We introduce DyCP, a lightweight context management method that dynamically segment and retrieve relevant memory at query time. It preserves the sequential structure of dialogue without predefined topic boundaries and supports efficient, adaptive context retrieval. Across three long-form dialogue benchmarks, LoCoMo, MT-Bench+, and SCM4LLMs, and multiple LLMs, DyCP consistently improves answer quality while reducing response latency. We also examine the gap between modern LLMs' expanded context windows and their actual long-context processing capacity, highlighting the continued importance of effective context management.
- Abstract(参考訳): 大きな言語モデル(LLM)は、対話の長さが大きくなるにつれて応答遅延が増加し、応答品質が低下することが多いため、効果的なコンテキスト管理が不可欠である。
しかし、既存のメソッドは、現在のユーザの発話を考慮せずに、メモリ構築やオフラインメモリ構築を行うために、余分なLLM呼び出しに依存しており、これは非効率性や会話の連続性を阻害する可能性がある。
我々は,クエリ時に関連メモリを動的に分割・取得する,軽量なコンテキスト管理手法であるDyCPを紹介する。
これは、予め定義されたトピック境界のない対話のシーケンシャルな構造を保持し、効率的で適応的なコンテキスト検索をサポートする。
LoCoMo, MT-Bench+, SCM4LLMs の3つの長文対話ベンチマークと複数の LLM にまたがって, DyCP は応答遅延を低減しながら応答品質を継続的に改善している。
また,LLMの拡張コンテキストウィンドウと実際の長期コンテキスト処理能力のギャップについても検討し,有効コンテキスト管理の継続的な重要性を浮き彫りにした。
関連論文リスト
- Evo-Memory: Benchmarking LLM Agent Test-time Learning with Self-Evolving Memory [89.65731902036669]
Evo-Memoryは、大規模言語モデル(LLM)エージェントで自己進化型メモリを評価するための、ストリーミングベンチマークとフレームワークである。
10以上の代表的なメモリモジュールを評価し、10種類の多ターンゴール指向およびシングルターン推論およびQAデータセットで評価した。
論文 参考訳(メタデータ) (2025-11-25T21:08:07Z) - KnowMT-Bench: Benchmarking Knowledge-Intensive Long-Form Question Answering in Multi-Turn Dialogues [58.305425399644086]
MT-LFQA(Multi-Turn Long-Form Question Answering)は、知識集約ドメインにおけるLLM(Large Language Models)の重要な応用パラダイムである。
textbfKnowMT-Benchは、知識集約的な分野にわたるLLMのためのMT-LFQAを体系的に評価するために設計された、テキストファーストなベンチマークである。
論文 参考訳(メタデータ) (2025-09-26T04:32:29Z) - SGMem: Sentence Graph Memory for Long-Term Conversational Agents [14.89396085814917]
チャンク単位内の文レベルグラフとして対話を表現するSGMem(Sentence Graph Memory)を紹介する。
SGMem は, 長期会話型質問応答において, 精度を向上し, 高いベースラインを向上することを示す。
論文 参考訳(メタデータ) (2025-09-25T14:21:44Z) - InfiniteICL: Breaking the Limit of Context Window Size via Long Short-term Memory Transformation [57.310236384112834]
In-context Learning (ICL) は、大規模言語モデル(LLM)において重要であるが、その有効性は有限コンテキストウィンドウによって制約される。
本稿では,LLMにおけるコンテキストとパラメータを,短期記憶と長期記憶に並列化するフレームワークであるInfiniteICLを紹介する。
提案手法は,コンテキスト長を90%削減し,フルコンテキストプロンプトの平均性能を103%向上することを示した。
論文 参考訳(メタデータ) (2025-04-02T13:15:44Z) - QRMeM: Unleash the Length Limitation through Question then Reflection Memory Mechanism [46.441032033076034]
メモリメカニズムは、長いコンテキストを管理するための柔軟なソリューションを提供する。
本稿では,二重構造メモリプールを組み込んだ新しい手法であるQRMeMを提案する。
マルチチョイス質問 (MCQ) とマルチドキュメント質問応答 (Multi-doc QA) のベンチマークによる評価では,既存手法と比較してQRMeMの性能が向上している。
論文 参考訳(メタデータ) (2024-06-19T02:46:18Z) - Evaluating Very Long-Term Conversational Memory of LLM Agents [95.84027826745609]
我々は,高品質で長期的な対話を生成するための,マシン・ヒューマン・パイプラインを導入する。
我々は、各エージェントに画像の共有と反応の能力を持たせる。
生成した会話は、長距離一貫性のために人間のアノテーションによって検証され、編集される。
論文 参考訳(メタデータ) (2024-02-27T18:42:31Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。