論文の概要: Should RAG Chatbots Forget Unimportant Conversations? Exploring Importance and Forgetting with Psychological Insights
- arxiv url: http://arxiv.org/abs/2409.12524v1
- Date: Thu, 19 Sep 2024 07:39:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 14:30:28.493550
- Title: Should RAG Chatbots Forget Unimportant Conversations? Exploring Importance and Forgetting with Psychological Insights
- Title(参考訳): RAGチャットボットはユニークな会話を忘れるべきか?
- Authors: Ryuichi Sumida, Koji Inoue, Tatsuya Kawahara,
- Abstract要約: 本稿では、感情的に記憶を刺激し、会話の10%未満を維持できるLUFYを提案する。
その結果,会話の大部分を忘れたままの記憶の優先順位付けがユーザエクスペリエンスを著しく向上させることが示された。
- 参考スコア(独自算出の注目度): 21.68243297242355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Retrieval-Augmented Generation (RAG) has shown promise in enhancing long-term conversations, the increasing memory load as conversations progress degrades retrieval accuracy. Drawing on psychological insights, we propose LUFY, a simple yet effective method that focuses on emotionally arousing memories and retains less than 10% of the conversation. In the user experiment, participants interacted with three types of RAG chatbots, each for 2 hours over 4 sessions, marking the most extensive assessment of a chatbot's long-term capabilities to date -- more than four times longer than any existing benchmark. The results demonstrate that prioritizing arousing memories while forgetting the majority of the conversation significantly enhances user experience. This study pushes the frontier of long-term conversations and highlights the importance of forgetting unimportant parts of conversations. Code and Dataset: https://github.com/ryuichi-sumida/LUFY
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は長期会話の強化を約束しているが,会話進行に伴う記憶負荷の増加は検索精度を低下させる。
心理的な洞察に基づいて、感情的な記憶を刺激し、会話の10%未満を維持できるシンプルで効果的な方法LUFYを提案する。
ユーザ実験では、参加者は3つのタイプのRAGチャットボットと対話し、それぞれが4セッションで2時間以上、チャットボットの長期的能力(既存のベンチマークの4倍以上)を最も広範囲に評価した。
その結果,会話の大部分を忘れたままの記憶の優先順位付けがユーザエクスペリエンスを著しく向上させることが示された。
本研究は、長期的な会話のフロンティアを推し進め、会話の重要でない部分を忘れることの重要性を強調する。
コードとデータセット:https://github.com/ryuichi-sumida/LUFY
関連論文リスト
- REALTALK: A 21-Day Real-World Dataset for Long-Term Conversation [51.97224538045096]
本稿では、21日間のメッセージアプリ対話のコーパスであるREALTALKを紹介する。
EI属性とペルソナの整合性を比較し,現実世界の対話による課題を理解する。
その結果,モデルでは対話履歴のみからユーザをシミュレートすることが困難であり,特定のユーザチャットの微調整はペルソナのエミュレーションを改善することがわかった。
論文 参考訳(メタデータ) (2025-02-18T20:29:01Z) - Empathetic Response in Audio-Visual Conversations Using Emotion Preference Optimization and MambaCompressor [44.499778745131046]
まず、チャットボットのトレーニングに感情的選好最適化(EPO)を用いる。
このトレーニングは、モデルが正しい反応と反感情反応の微妙な区別を識別することを可能にする。
次に,MambaCompressorを導入し,会話履歴を効果的に圧縮し,管理する。
複数のデータセットにまたがる包括的実験により、我々のモデルは共感的応答の生成や長い対話の管理において、既存のモデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-12-23T13:44:51Z) - LongMemEval: Benchmarking Chat Assistants on Long-Term Interactive Memory [68.97819665784442]
本稿では,チャットアシスタントの5つのコアメモリ能力を評価するためのベンチマークであるLongMemEvalを紹介する。
LongMemEvalは、既存の長期記憶システムにとって重要な課題である。
長期記憶設計を4つの設計選択に分割する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-14T17:59:44Z) - Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Recursively Summarizing Enables Long-Term Dialogue Memory in Large
Language Models [75.98775135321355]
長い会話をすると、大きな言語モデル(LLM)は過去の情報を思い出さず、一貫性のない応答を生成する傾向がある。
本稿では,長期記憶能力を高めるために,大規模言語モデル(LLM)を用いて要約/メモリを生成することを提案する。
論文 参考訳(メタデータ) (2023-08-29T04:59:53Z) - AFEC: A Knowledge Graph Capturing Social Intelligence in Casual
Conversations [7.390960543869484]
本稿では,日々のカジュアルな会話に基づいた知識グラフであるAFECを紹介する。
この知識を包括的で意味のあるものにするために、r/CasualConversation SubRedditから大規模なコーパスをキュレーションしました。
論文 参考訳(メタデータ) (2022-05-22T15:19:12Z) - CoMPM: Context Modeling with Speaker's Pre-trained Memory Tracking for
Emotion Recognition in Conversation [0.0]
予め訓練されたメモリモジュール(PM)と組み合わせたコンテキスト埋め込みモジュール(CoM)を導入する。
事前学習した記憶は感情認識の最終的な精度を著しく向上させることを示す。
マルチパーティデータセット(MELD, EmoryNLP)とダイアドパーティデータセット(IEMOCAP, DailyDialog)の両方で実験を行った。
論文 参考訳(メタデータ) (2021-08-26T07:45:09Z) - Intelligent Conversational Android ERICA Applied to Attentive Listening
and Job Interview [41.789773897391605]
我々はインテリジェントな会話型android ericaを開発した。
ERICAには,注意深い聞き取り,就職面接,スピードデートなど,いくつかのソーシャルインタラクションタスクを設定した。
40人の高齢者が会話を分解することなく5~7分間の会話を行ったことが評価されている。
論文 参考訳(メタデータ) (2021-05-02T06:37:23Z) - Exploiting Unsupervised Data for Emotion Recognition in Conversations [76.01690906995286]
会話における感情認識(Emotion Recognition in Conversations:ERC)は、会話における話者の感情状態を予測することを目的としている。
ERCタスクの教師付きデータは限られている。
教師なし会話データを活用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-02T13:28:47Z) - Pchatbot: A Large-Scale Dataset for Personalized Chatbot [49.16746174238548]
本稿では,Weibo と Judicial のフォーラムから収集した2つのサブセットを含む大規模対話データセットである Pchatbot を紹介する。
生データセットを対話システムに適応させるため、匿名化などのプロセスを通じて生データセットを精巧に正規化する。
Pchatbotのスケールは、既存の中国のデータセットよりも大幅に大きく、データ駆動モデルの恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2020-09-28T12:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。