論文の概要: Enhancing Conversational Agents via Task-Oriented Adversarial Memory Adaptation
- arxiv url: http://arxiv.org/abs/2601.21797v1
- Date: Thu, 29 Jan 2026 14:42:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.901515
- Title: Enhancing Conversational Agents via Task-Oriented Adversarial Memory Adaptation
- Title(参考訳): タスク指向逆メモリ適応による会話エージェントの強化
- Authors: Yimin Deng, Yuqing Fu, Derong Xu, Yejing Wang, Wei Ni, Jingtong Gao, Xiaopeng Li, Chengxu Liu, Xiao Han, Guoshuai Zhao, Xiangyu Zhao, Li Zhu, Xueming Qian,
- Abstract要約: 本稿では,タスク実行をシミュレートすることで,メモリ構築と更新をタスク目標と整合させるアダクティブメモリ適応機構を提案する。
AMAは、様々な既存のメモリシステムに統合することができ、LongダイアログベンチマークであるLoCoMoの広範な実験により、その効果が示されている。
- 参考スコア(独自算出の注目度): 64.69535903624033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conversational agents struggle to handle long conversations due to context window limitations. Therefore, memory systems are developed to leverage essential historical information. Existing memory systems typically follow a pipeline of offline memory construction and update, and online retrieval. Despite the flexible online phase, the offline phase remains fixed and task-independent. In this phase, memory construction operates under a predefined workflow and fails to emphasize task relevant information. Meanwhile, memory updates are guided by generic metrics rather than task specific supervision. This leads to a misalignment between offline memory preparation and task requirements, which undermines downstream task performance. To this end, we propose an Adversarial Memory Adaptation mechanism (AMA) that aligns memory construction and update with task objectives by simulating task execution. Specifically, first, a challenger agent generates question answer pairs based on the original dialogues. The constructed memory is then used to answer these questions, simulating downstream inference. Subsequently, an evaluator agent assesses the responses and performs error analysis. Finally, an adapter agent analyzes the error cases and performs dual level updates on both the construction strategy and the content. Through this process, the memory system receives task aware supervision signals in advance during the offline phase, enhancing its adaptability to downstream tasks. AMA can be integrated into various existing memory systems, and extensive experiments on long dialogue benchmark LoCoMo demonstrate its effectiveness.
- Abstract(参考訳): 会話エージェントは、コンテキストウィンドウの制限のために長い会話を扱うのに苦労する。
そのため、メモリシステムは重要な歴史的情報を活用するために開発されている。
既存のメモリシステムは、通常オフラインのメモリ構築と更新、オンライン検索のパイプラインに従う。
フレキシブルなオンラインフェーズにもかかわらず、オフラインフェーズは固定され、タスクに依存しない。
このフェーズでは、メモリ構成は事前に定義されたワークフローの下で動作し、タスクに関連する情報を強調するのに失敗する。
一方、メモリ更新はタスク固有の監視ではなく、一般的なメトリクスによってガイドされる。
これにより、オフラインメモリの準備とタスク要求の相違が生じ、ダウンストリームタスクのパフォーマンスが損なわれる。
そこで本研究では,タスク実行をシミュレートすることで,メモリ構築と更新をタスク目標と整合させる,AMA(Adversarial Memory Adaptation Mechanism)を提案する。
具体的には、まず、挑戦者エージェントが元の対話に基づいて質問応答ペアを生成する。
構築されたメモリを使ってこれらの質問に答え、下流の推論をシミュレートする。
その後、評価エージェントが応答を評価し、エラー解析を行う。
最後に、アダプタエージェントがエラーケースを分析し、構成戦略とコンテンツの両方について二重レベル更新を行う。
このプロセスを通じて、メモリシステムは、オフラインフェーズ中に予めタスクを意識した監視信号を受信し、下流タスクへの適応性を高める。
AMAは、様々な既存のメモリシステムに統合することができ、LongダイアログベンチマークであるLoCoMoの広範な実験により、その効果が示されている。
関連論文リスト
- AMA: Adaptive Memory via Multi-Agent Collaboration [54.490349689939166]
複数の粒度にまたがるメモリ管理に協調エージェントを活用する新しいフレームワークであるAMA(Adaptive Memory via Multi-Agent Collaboration)を提案する。
AMAは、ステート・オブ・ザ・アートのベースラインを著しく上回り、トークンの消費をフルコンテキストの手法と比べて約80%削減する。
論文 参考訳(メタデータ) (2026-01-28T08:09:49Z) - Fine-Mem: Fine-Grained Feedback Alignment for Long-Horizon Memory Management [63.48041801851891]
Fine-Memは、きめ細かいフィードバックアライメントのために設計された統一されたフレームワークである。
MemalphaとMemoryAgentBenchの実験は、Fin-Memが強いベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2026-01-13T11:06:17Z) - EverMemOS: A Self-Organizing Memory Operating System for Structured Long-Horizon Reasoning [42.339841548168565]
大きな言語モデル(LLM)は、長期の対話エージェントとしてますますデプロイされているが、その限られたコンテキストウィンドウは、拡張された相互作用よりもコヒーレントな振舞いを維持するのが困難である。
本稿では,EverMemOSについて紹介する。EverMemOSは,計算メモリにエミュレートされたライフサイクルを実装した自己組織型メモリオペレーティングシステムである。
EverMemOSは、メモリ拡張推論タスクで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-05T14:39:43Z) - Evo-Memory: Benchmarking LLM Agent Test-time Learning with Self-Evolving Memory [89.65731902036669]
Evo-Memoryは、大規模言語モデル(LLM)エージェントで自己進化型メモリを評価するための、ストリーミングベンチマークとフレームワークである。
10以上の代表的なメモリモジュールを評価し、10種類の多ターンゴール指向およびシングルターン推論およびQAデータセットで評価した。
論文 参考訳(メタデータ) (2025-11-25T21:08:07Z) - FindingDory: A Benchmark to Evaluate Memory in Embodied Agents [49.18498389833308]
本研究では,Habitatシミュレータに長距離エンボディタスクのための新しいベンチマークを導入する。
このベンチマークは、持続的なエンゲージメントとコンテキスト認識を必要とする60タスクにわたるメモリベースの機能を評価する。
論文 参考訳(メタデータ) (2025-06-18T17:06:28Z) - Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions [55.19217798774033]
メモリは、大規模言語モデル(LLM)ベースのエージェントを支える、AIシステムの基本コンポーネントである。
本稿ではまず,メモリ表現をパラメトリックおよびコンテキスト形式に分類する。
次に、コンソリデーション、更新、インデックス付け、フォッティング、検索、圧縮の6つの基本的なメモリ操作を紹介します。
論文 参考訳(メタデータ) (2025-05-01T17:31:33Z) - KARMA: Augmenting Embodied AI Agents with Long-and-short Term Memory Systems [12.461941212597877]
エンボディードAIエージェントは、しばしばコンテキスト内メモリの困難に直面し、タスク実行の非効率性とエラーを引き起こす。
我々は,長期記憶モジュールと短期記憶モジュールを統合する革新的なメモリシステムであるKARMAを紹介する。
メモリ拡張型エンボディAIエージェントは,複合タスクおよび複合タスクにおいて,成功率を1.3倍,2.3倍に向上させる。
論文 参考訳(メタデータ) (2024-09-23T11:02:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。