論文の概要: UniMC: A Unified Framework for Long-Term Memory Conversation via
Relevance Representation Learning
- arxiv url: http://arxiv.org/abs/2306.10543v1
- Date: Sun, 18 Jun 2023 12:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 20:05:15.793460
- Title: UniMC: A Unified Framework for Long-Term Memory Conversation via
Relevance Representation Learning
- Title(参考訳): UniMC:関係表現学習による長期記憶会話のための統一フレームワーク
- Authors: Kang Zhao, Wei Liu, Jian Luan, Minglei Gao, Li Qian, Hanlin Teng, Bin
Wang
- Abstract要約: We propose a Unified framework for Long-term Memory Conversations (UniMC)。
主タスクを確率グラフに基づいて3つのサブタスクに分解する。
各サブタスクは、クエリとメモリ間の関連性を計算するための表現を学習する。
- 参考スコア(独自算出の注目度): 15.313416157905685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open-domain long-term memory conversation can establish long-term intimacy
with humans, and the key is the ability to understand and memorize long-term
dialogue history information. Existing works integrate multiple models for
modelling through a pipeline, which ignores the coupling between different
stages. In this paper, we propose a Unified framework for Long-term Memory
Conversations (UniMC), which increases the connection between different stages
by learning relevance representation. Specifically, we decompose the main task
into three subtasks based on probability graphs: 1) conversation summarization,
2) memory retrieval, 3) memory-augmented generation. Each subtask involves
learning a representation for calculating the relevance between the query and
memory, which is modelled by inserting a special token at the beginning of the
decoder input. The relevance representation learning strengthens the connection
across subtasks through parameter sharing and joint training. Extensive
experimental results show that the proposed method consistently improves over
strong baselines and yields better dialogue consistency and engagingness.
- Abstract(参考訳): オープンドメインの長期記憶会話は、人間との長期的な親密性を確立することができ、鍵となるのは、長期の対話履歴情報を理解し記憶する能力である。
既存の作業は、パイプラインを通じてモデリングする複数のモデルを統合することで、異なるステージ間の結合を無視します。
本稿では,関係表現を学習することで異なるステージ間の接続を増加させる,長期記憶会話(unimc)のための統一フレームワークを提案する。
具体的には、主タスクを確率グラフに基づいて3つのサブタスクに分解する。
1)会話要約
2)メモリ検索
3)メモリ拡張世代。
各サブタスクは、デコーダ入力の先頭に特別なトークンを挿入することによってモデル化されたクエリとメモリ間の関連性を計算する表現を学習する。
関連表現学習は、パラメータ共有と合同トレーニングを通じてサブタスク間の接続を強化する。
実験結果から,提案手法は強いベースラインよりも一貫して改善され,対話の一貫性と係合性が向上することが示された。
関連論文リスト
- Introducing MeMo: A Multimodal Dataset for Memory Modelling in Multiparty Conversations [1.8896253910986929]
MeMo Corpusは参加者のメモリ保持レポートに注釈を付けた最初のデータセットである。
検証された振る舞いと知覚の計測、オーディオ、ビデオ、マルチモーダルアノテーションを統合する。
本稿では,知的システム開発のための対話型メモリモデリングにおける今後の研究の道を開くことを目的とする。
論文 参考訳(メタデータ) (2024-09-07T16:09:36Z) - PerLTQA: A Personal Long-Term Memory Dataset for Memory Classification,
Retrieval, and Synthesis in Question Answering [27.815507347725344]
本研究は、意味記憶とエピソード記憶を組み合わせた革新的なQAデータセットであるPerLTQAを紹介する。
PerLTQAは2種類のメモリと、30文字に対して8,593質問のベンチマークを備えている。
本稿では,メモリ分類,メモリ検索,メモリ合成という3つの主要コンポーネントからなる,メモリ統合と生成のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-26T04:09:53Z) - Memory-Inspired Temporal Prompt Interaction for Text-Image
Classification [13.449375069856684]
我々は、人間の記憶戦略、すなわちメモリインスパイアされたテンポラルプロンプトインタラクション(MITP)にインスパイアされた、新しいプロンプトベースのマルチモーダルインタラクション戦略を提案する。
我々は、中間層上の時間的プロンプトを利用して取得段階を模倣し、類似性に基づくプロンプト相互作用を利用してメモリ統合を模倣し、メモリアクティベーションを模倣するプロンプト生成戦略を採用する。
比較的少ないメモリ使用量とトレーニング可能なパラメータの2.0Mのデータセットで競合する結果が得られる。
論文 参考訳(メタデータ) (2024-01-26T13:36:12Z) - Recursively Summarizing Enables Long-Term Dialogue Memory in Large
Language Models [75.98775135321355]
長い会話をすると、大きな言語モデル(LLM)は過去の情報を思い出さず、一貫性のない応答を生成する傾向がある。
本稿では,長期記憶能力を高めるために,大規模言語モデル(LLM)を用いて要約/メモリを生成することを提案する。
論文 参考訳(メタデータ) (2023-08-29T04:59:53Z) - Enhancing Large Language Model with Self-Controlled Memory Framework [56.38025154501917]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z) - Learning to Memorize Entailment and Discourse Relations for
Persona-Consistent Dialogues [8.652711997920463]
既存の作業は、高度ネットワーク構造を持つ対話者ペルソナを意図的に学習することで、対話システムの性能を改善した。
本研究は,ペルソナ一貫性のある対話課題における係り受け関係と談話関係を記憶する学習方法を提案する。
論文 参考訳(メタデータ) (2023-01-12T08:37:00Z) - Memory-Guided Semantic Learning Network for Temporal Sentence Grounding [55.31041933103645]
本稿では,TSGタスクにおいて稀に出現しないコンテンツを学習し,記憶するメモリ拡張ネットワークを提案する。
MGSL-Netは、クロスモーダル・インターアクション・モジュール、メモリ拡張モジュール、異種アテンション・モジュールの3つの主要な部分で構成されている。
論文 参考訳(メタデータ) (2022-01-03T02:32:06Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。