論文の概要: Towards Lifelong Dialogue Agents via Relation-aware Memory Construction and Timeline-augmented Response Generation
- arxiv url: http://arxiv.org/abs/2406.10996v2
- Date: Fri, 18 Oct 2024 12:54:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:22:33.407911
- Title: Towards Lifelong Dialogue Agents via Relation-aware Memory Construction and Timeline-augmented Response Generation
- Title(参考訳): リレーショナル・アウェア・メモリ構築とタイムライン拡張応答生成による生涯対話エージェントの実現に向けて
- Authors: Kai Tzu-iunn Ong, Namyoung Kim, Minju Gwak, Hyungjoo Chae, Taeyoon Kwon, Yohan Jo, Seung-won Hwang, Dongha Lee, Jinyoung Yeo,
- Abstract要約: 本稿では,生涯対話エージェントのフレームワークであるTheanineを紹介する。
テアニンは記憶の除去を放棄し、その時間的および原因=効果の関係に基づいてそれらをリンクすることで大規模な記憶を管理する。
本稿では,G-Evalの限界と,メモリ拡張ダイアログエージェントの測定における人的努力に対処する,反事実駆動型評価手法であるTeaFarmを紹介する。
- 参考スコア(独自算出の注目度): 26.95907827895548
- License:
- Abstract: To achieve lifelong human-agent interaction, dialogue agents need to constantly memorize perceived information and properly retrieve it for response generation (RG). While prior work focuses on getting rid of outdated memories to improve retrieval quality, we argue that such memories provide rich, important contextual cues for RG (e.g., changes in user behaviors) in long-term conversations. We present Theanine, a framework for LLM-based lifelong dialogue agents. Theanine discards memory removal and manages large-scale memories by linking them based on their temporal and cause-effect relation. Enabled by this linking structure, Theanine augments RG with memory timelines - series of memories representing the evolution or causality of relevant past events. Along with Theanine, we introduce TeaFarm, a counterfactual-driven evaluation scheme, addressing the limitation of G-Eval and human efforts in measuring memory-augmented dialogue agents. A supplementary video for Theanine and data for TeaFarm are at https://huggingface.co/spaces/ResearcherScholar/Theanine.
- Abstract(参考訳): 生涯にわたる人間とエージェントのインタラクションを実現するためには、対話エージェントは認識された情報を常に記憶し、応答生成(RG)のために適切に検索する必要がある。
過去の研究は、検索品質を改善するために時代遅れの記憶をなくすことに重点を置いているが、このような記憶は長期会話におけるRG(例えば、ユーザの行動の変化)にとって、リッチで重要な文脈的手がかりを提供すると論じている。
本稿では,LLMに基づく生涯対話エージェントのためのフレームワークであるTheanineを紹介する。
テアニンは記憶の除去を放棄し、その時間的および原因=効果の関係に基づいてそれらをリンクすることで大規模な記憶を管理する。
このリンク構造によって実現されたTheanineは、RGにメモリタイムライン(関連する過去の出来事の進化や因果関係を表す一連のメモリ)を付加する。
Theanineとともに、G-Evalの限界と、メモリ拡張ダイアログエージェントの測定における人間の努力に対処する対実的評価手法であるTeaFarmを紹介した。
Theanineの補足ビデオとTeaFarmのデータはhttps://huggingface.co/spaces/ResearcherScholar/Theanineにある。
関連論文リスト
- Beyond Memorization: The Challenge of Random Memory Access in Language Models [56.525691003233554]
生成言語モデル(LM)がそのメモリに逐次的またはランダムにアクセスできるかどうかを検討する。
本手法により, LMのランダムメモリアクセス性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-03-12T16:42:44Z) - Ever-Evolving Memory by Blending and Refining the Past [30.63352929849842]
CREEMは長期会話のための新しい記憶システムである。
過去と現在の情報をシームレスに接続すると同時に、障害情報を忘れる能力も備えている。
論文 参考訳(メタデータ) (2024-03-03T08:12:59Z) - Evaluating Very Long-Term Conversational Memory of LLM Agents [95.84027826745609]
我々は,高品質で長期的な対話を生成するための,マシン・ヒューマン・パイプラインを導入する。
我々は、各エージェントに画像の共有と反応の能力を持たせる。
生成した会話は、長距離一貫性のために人間のアノテーションによって検証され、編集される。
論文 参考訳(メタデータ) (2024-02-27T18:42:31Z) - Think-in-Memory: Recalling and Post-thinking Enable LLMs with Long-Term
Memory [24.464945401037056]
歴史的思考を記憶するための進化した記憶を大規模言語モデルで維持できるTiM(Think-in-Memory)を提案する。
我々は,多種多様な話題をカバーする実世界および模擬対話の質的,定量的な実験を行う。
論文 参考訳(メタデータ) (2023-11-15T06:08:35Z) - Recursively Summarizing Enables Long-Term Dialogue Memory in Large
Language Models [75.98775135321355]
長い会話をすると、大きな言語モデル(LLM)は過去の情報を思い出さず、一貫性のない応答を生成する傾向がある。
本稿では,長期記憶能力を高めるために,大規模言語モデル(LLM)を用いて要約/メモリを生成することを提案する。
論文 参考訳(メタデータ) (2023-08-29T04:59:53Z) - Augmenting Language Models with Long-Term Memory [142.04940250657637]
既存の大規模言語モデル(LLM)では、入力長制限のため、固定サイズの入力しかできない。
本稿では,Long-Term Memory (LongMem) を付加した言語モデルを提案する。
論文 参考訳(メタデータ) (2023-06-12T15:13:39Z) - Enhancing Large Language Model with Self-Controlled Memory Framework [56.38025154501917]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z) - Keep Me Updated! Memory Management in Long-term Conversations [14.587940208778843]
本稿では,長期会話における新しいタスクとメモリ管理データセットを提案する。
本稿では,無効あるいは冗長な情報を排除した新しいメモリ管理機構を提案する。
実験結果から,本研究のアプローチは,エンゲージネスや人間性という点において,ベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-10-17T05:06:38Z) - Long Time No See! Open-Domain Conversation with Long-Term Persona Memory [37.51131984324123]
長期記憶会話(LeMon)の新たな課題について紹介する。
次に、新しい対話データセットDuLeMonとLong-Term Memory(LTM)機構を備えた対話生成フレームワークを構築する。
DuLeMonの結果から,PLATO-LTMは長期対話の整合性において,ベースラインを大幅に上回る可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-11T08:41:14Z) - Learning to Rehearse in Long Sequence Memorization [107.14601197043308]
既存の推論タスクは、しばしば、推論中に入力内容が常にアクセス可能であるという重要な仮定を持つ。
メモリ拡張ニューラルネットワークは、人間のような書き込み読み取りメモリを導入し、1回のパスで長い入力シーケンスを圧縮し記憶する。
しかし、2つの重大な欠点がある: 1) メモリを現在の情報から継続的に更新し、必然的に初期の内容を忘れる; 2) 重要な情報を区別せず、全てのコンテンツを平等に扱う。
本稿では,履歴サンプリング装置を用いた自己教師型リハーサルによる長期記憶向上のためのリハーサルメモリを提案する。
論文 参考訳(メタデータ) (2021-06-02T11:58:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。