論文の概要: Bounded State in an Infinite Horizon: Proactive Hierarchical Memory for Ad-Hoc Recall over Streaming Dialogues
- arxiv url: http://arxiv.org/abs/2603.04885v1
- Date: Thu, 05 Mar 2026 07:25:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.113282
- Title: Bounded State in an Infinite Horizon: Proactive Hierarchical Memory for Ad-Hoc Recall over Streaming Dialogues
- Title(参考訳): Infinite Horizonにおける境界状態:ストリーム対話におけるアドホックリコールのためのアクティブ階層記憶
- Authors: Bingbing Wang, Jing Li, Ruifeng Xu,
- Abstract要約: textbfProStreamは,ストリーム対話のためのアクティブな階層型メモリフレームワークである。
マルチグラニュラー蒸留による連続ストリームを推論することで、オンデマンドでのアドホックメモリリコールを可能にする。
実験によると、ProStreamは精度と効率の両方でベースラインを上回っている。
- 参考スコア(独自算出の注目度): 27.69314585543646
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Real-world dialogue usually unfolds as an infinite stream. It thus requires bounded-state memory mechanisms to operate within an infinite horizon. However, existing read-then-think memory is fundamentally misaligned with this setting, as it cannot support ad-hoc memory recall while streams unfold. To explore this challenge, we introduce \textbf{STEM-Bench}, the first benchmark for \textbf{ST}reaming \textbf{E}valuation of \textbf{M}emory. It comprises over 14K QA pairs in dialogue streams that assess perception fidelity, temporal reasoning, and global awareness under infinite-horizon constraints. The preliminary analysis on STEM-Bench indicates a critical \textit{fidelity-efficiency dilemma}: retrieval-based methods use fragment context, while full-context models incur unbounded latency. To resolve this, we propose \textbf{ProStream}, a proactive hierarchical memory framework for streaming dialogues. It enables ad-hoc memory recall on demand by reasoning over continuous streams with multi-granular distillation. Moreover, it employs Adaptive Spatiotemporal Optimization to dynamically optimize retention based on expected utility. It enables a bounded knowledge state for lower inference latency without sacrificing reasoning fidelity. Experiments show that ProStream outperforms baselines in both accuracy and efficiency.
- Abstract(参考訳): 現実世界の対話は通常無限のストリームとして展開される。
したがって、無限の地平線内で動作するために境界状態記憶機構が必要である。
しかし、ストリームが展開している間にアドホックなメモリリコールをサポートできないため、既存の読み取りテーマのメモリは基本的にこの設定と不一致である。
この課題を探求するために、 \textbf{STEM-Bench} は \textbf{ST}reaming \textbf{E}valuation of \textbf{M}emory の最初のベンチマークである。
対話ストリームには14K以上のQAペアがあり、無限水平制約の下で知覚の忠実さ、時間的推論、グローバルな認識を評価する。
STEM-Benchの予備解析では、検索に基づく手法はフラグメントコンテキストを使用し、フルコンテキストモデルは非有界遅延を発生させる。
そこで本研究では,ストリーム対話のためのアクティブな階層型メモリフレームワークである \textbf{ProStream} を提案する。
マルチグラニュラー蒸留による連続ストリームを推論することで、オンデマンドでのアドホックメモリリコールを可能にする。
さらに、適応時空間最適化を用いて、期待されたユーティリティに基づいたリテンションを動的に最適化する。
推論精度を犠牲にすることなく、推論遅延を低くするための有界な知識状態を可能にする。
実験によると、ProStreamは精度と効率の両方でベースラインを上回っている。
関連論文リスト
- LoGeR: Long-Context Geometric Reconstruction with Hybrid Memory [97.14005794889134]
提案するLoGeRは,高密度な3次元再構成を,後最適化なしで極めて長いシーケンスに拡張する新しいアーキテクチャである。
LoGeRはビデオストリームをチャンクで処理し、高忠実度なチャンク内推論に強力な双方向の事前処理を活用する。
このメモリアーキテクチャにより、LoGeRは128フレームのシーケンスでトレーニングでき、推論中に数千フレームまで一般化できる。
論文 参考訳(メタデータ) (2026-03-03T18:55:37Z) - From Verbatim to Gist: Distilling Pyramidal Multimodal Memory via Semantic Information Bottleneck for Long-Horizon Video Agents [78.30630000529133]
本稿ではファジィトレース理論に基づくピラミッド型マルチモーダルメモリアーキテクチャMM-Memを提案する。
MM-Memメモリは階層的に感覚バッファ、エピソードストリーム、シンボリックに構造する。
実験により、MM-Memがオフラインタスクとストリーミングタスクの両方で有効であることが確認された。
論文 参考訳(メタデータ) (2026-03-02T05:12:45Z) - LaSER: Internalizing Explicit Reasoning into Latent Space for Dense Retrieval [74.72139580745511]
LaSERは、レトリバーの潜在空間に明示的な推論を内部化する、新しい自己蒸留フレームワークである。
提案手法は, 明示的なCoTパイプラインの推論深度と, 標準的な高密度検索器の推論効率をうまく組み合わせる。
論文 参考訳(メタデータ) (2026-03-02T04:11:18Z) - AMA: Adaptive Memory via Multi-Agent Collaboration [54.490349689939166]
複数の粒度にまたがるメモリ管理に協調エージェントを活用する新しいフレームワークであるAMA(Adaptive Memory via Multi-Agent Collaboration)を提案する。
AMAは、ステート・オブ・ザ・アートのベースラインを著しく上回り、トークンの消費をフルコンテキストの手法と比べて約80%削減する。
論文 参考訳(メタデータ) (2026-01-28T08:09:49Z) - Beyond Dialogue Time: Temporal Semantic Memory for Personalized LLM Agents [68.84161689205779]
テンポラルセマンティックメモリ(TSM)は、ポイントワイドメモリのセマンティックタイムをモデル化するメモリフレームワークである。
TSMは既存の手法を一貫して上回り、最大12.2%の精度向上を実現している。
論文 参考訳(メタデータ) (2026-01-12T12:24:44Z) - FlashMem: Distilling Intrinsic Latent Memory via Computation Reuse [4.210760734549566]
FlashMemは、計算再利用を通じて、過渡的推論状態から直接固有のメモリを蒸留するフレームワークである。
実験によると、FlashMemは5倍の推論遅延を減らしながら、重いベースラインのパフォーマンスと一致している。
論文 参考訳(メタデータ) (2026-01-09T03:27:43Z) - Membox: Weaving Topic Continuity into Long-Range Memory for LLM Agents [14.666607208502185]
Topic Loomを中心にした階層型メモリアーキテクチャであるmemboxを紹介した。
Memboxはスライディングウインドウ方式で対話を監視し、連続した同一トピックの変換を記憶時にコヒーレントな「メモリボックス」にグループ化する。
LoCoMoの実験では、Memboxは時間的推論タスクにおいて最大68%のF1改善を実現している。
論文 参考訳(メタデータ) (2026-01-07T10:36:29Z) - SoulX-FlashTalk: Real-Time Infinite Streaming of Audio-Driven Avatars via Self-Correcting Bidirectional Distillation [16.34443339642213]
textbfX-FlashTalkは、textbf32 FPSのリアルタイムスループットを達成しながら、textbfsub秒の起動遅延(0.87秒)を達成する14Bスケールのシステムである。
SoulX-FlashTalkは、Textbf32 FPSのリアルタイムスループットを達成しつつ、Textbfsub秒の起動遅延(0.87秒)を達成する最初の14Bスケールシステムである。
論文 参考訳(メタデータ) (2025-12-29T11:18:24Z) - Memory-T1: Reinforcement Learning for Temporal Reasoning in Multi-session Agents [80.33280979339123]
強化学習(RL)を用いた時間認識メモリ選択ポリシーを学習するフレームワークであるMemory-T1を紹介する。
Time-Dialogベンチマークでは、Memory-T1が7Bモデルを67.0%に引き上げ、オープンソースモデルの新たな最先端パフォーマンスを確立した。
論文 参考訳(メタデータ) (2025-12-23T06:37:29Z) - Mnemosyne: An Unsupervised, Human-Inspired Long-Term Memory Architecture for Edge-Based LLMs [1.2582867366903179]
我々は、エッジベース大規模言語モデル(LLM)のための、教師なし、人間にインスパイアされた長期記憶アーキテクチャであるMnemosyneを紹介する。
提案手法では, グラフ構造記憶, モジュール状物質および冗長性フィルタ, メモリコミットとプルーニング機構, 時間減衰とリフレッシュ処理による確率的リコールを用いた。
Mnemosyneは、反復的で意味的に類似しているが、時間的に異なる会話は、ナイーブ検索によって制限される縦型医療アシスタントでの使用を目的として設計されている。
論文 参考訳(メタデータ) (2025-10-07T03:32:53Z) - Beyond Context Limits: Subconscious Threads for Long-Horizon Reasoning [11.810780820457927]
本稿では,大規模言語モデルのファミリーであるスレッド推論モデル(TIM)と,推論ランタイムであるTIMRUNを提案する。
TIMRUNにホストされたTIMは、単一の言語モデル推論内で、事実上無制限のワーキングメモリとマルチホップツールコールをサポートする。
我々は,GPUメモリ上で最大90%のKVキャッシュを動作させる場合でも,高い推論スループットを保っていることを示す。
論文 参考訳(メタデータ) (2025-07-22T17:30:04Z) - StreamingDialogue: Prolonged Dialogue Learning via Long Context Compression with Minimal Losses [67.92595110412094]
StreamingDialogueは長い対話履歴を最小限の損失でconv-attnシンクに圧縮する。
本手法は対話タスクにおいて強いベースラインを上回ります。
論文 参考訳(メタデータ) (2024-03-13T07:44:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。