論文の概要: Beyond Goldfish Memory: Long-Term Open-Domain Conversation
- arxiv url: http://arxiv.org/abs/2107.07567v1
- Date: Thu, 15 Jul 2021 19:01:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-19 14:49:50.862912
- Title: Beyond Goldfish Memory: Long-Term Open-Domain Conversation
- Title(参考訳): goldfishのメモリを超えて:長期にわたるオープンドメイン会話
- Authors: Jing Xu, Arthur Szlam, Jason Weston
- Abstract要約: 複数のチャットセッションからなる人間と人間のデータセットをリリースする。
この長期会話環境では、既存のデータセットでトレーニングされた既存のモデルがどのようにうまく機能するかを示す。
特に,過去の会話を要約し,思い出させる機能を備えた検索拡張手法や手法を見いだす。
- 参考スコア(独自算出の注目度): 43.37382902468993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite recent improvements in open-domain dialogue models, state of the art
models are trained and evaluated on short conversations with little context. In
contrast, the long-term conversation setting has hardly been studied. In this
work we collect and release a human-human dataset consisting of multiple chat
sessions whereby the speaking partners learn about each other's interests and
discuss the things they have learnt from past sessions. We show how existing
models trained on existing datasets perform poorly in this long-term
conversation setting in both automatic and human evaluations, and we study
long-context models that can perform much better. In particular, we find
retrieval-augmented methods and methods with an ability to summarize and recall
previous conversations outperform the standard encoder-decoder architectures
currently considered state of the art.
- Abstract(参考訳): 近年のオープンドメインダイアログモデルの改善にもかかわらず、アートモデルの状態はトレーニングされ、文脈がほとんどない短い会話で評価される。
対照的に、長期的な会話設定はほとんど研究されていない。
この作業では、複数のチャットセッションからなる人間と人間のデータセットを収集、リリースし、話し合うパートナーが互いの関心について学び、過去のセッションから学んだことを議論する。
既存のデータセットでトレーニングされた既存のモデルは、この長期的な会話設定において、自動評価と人的評価の両方において、どのようにうまく機能するかを示す。
特に,現在最先端にある標準エンコーダ・デコーダアーキテクチャよりも,これまでの会話を要約し,想起することができる検索型手法や手法を見出した。
関連論文リスト
- Evaluating Very Long-Term Conversational Memory of LLM Agents [95.84027826745609]
我々は,高品質で長期的な対話を生成するための,マシン・ヒューマン・パイプラインを導入する。
我々は、各エージェントに画像の共有と反応の能力を持たせる。
生成した会話は、長距離一貫性のために人間のアノテーションによって検証され、編集される。
論文 参考訳(メタデータ) (2024-02-27T18:42:31Z) - Mind the Gap Between Conversations for Improved Long-Term Dialogue
Generation [21.109006148673846]
GapChatは、セッション間の時間が異なるマルチセッション対話データセットである。
データセットはリアルタイムに構築されているが、話者の生活における出来事の進行をシミュレートして、長い時間間隔で発生する現実的な対話を生成する。
時間認識モデルは、選択したトピックと会話から得られる情報との関係を判断する指標において、より良いパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-10-24T00:12:38Z) - Conversation Chronicles: Towards Diverse Temporal and Relational
Dynamics in Multi-Session Conversations [9.249662593315541]
我々は,長期会話設定を実装するために,新たに100万件の多セッション対話データセットであるConversation Chroniclesを導入する。
会話年代記の対話エピソードは、一貫性と一貫した相互作用を維持しながら、それらの特性を反映していることを示す。
また、時系列要約と対話生成モジュールで構成されるReBotと呼ばれる対話モデルを提案する。
論文 参考訳(メタデータ) (2023-10-20T11:06:21Z) - AutoConv: Automatically Generating Information-seeking Conversations
with Large Language Models [74.10293412011455]
合成会話生成のためのAutoConvを提案する。
具体的には,会話生成問題を言語モデリングタスクとして定式化する。
我々は、情報探索プロセスの特徴を捉えるために、人間同士の会話でLLMを微調整する。
論文 参考訳(メタデータ) (2023-08-12T08:52:40Z) - Multi-Party Chat: Conversational Agents in Group Settings with Humans
and Models [39.80729604768669]
我々は,多人数会話において,言語モデルが1つ以上のキャラクタとして機能する能力を評価する。
新しいデータセットであるMultiLIGHTは、グループ設定の大幅な改善に役立ちます。
論文 参考訳(メタデータ) (2023-04-26T21:41:17Z) - PLACES: Prompting Language Models for Social Conversation Synthesis [103.94325597273316]
我々は、プロンプトを用いてソーシャルな会話データセットを合成するために、専門家による会話の小さなセットをコンテキスト内例として使用します。
人工会話の徹底的な評価を,人間による会話と比較して行った。
論文 参考訳(メタデータ) (2023-02-07T05:48:16Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - Summary Grounded Conversation Generation [10.470157142861174]
入力として会話の要約だけを考えると、事前学習された言語モデルがどのように会話全体を生成できるかを示す。
また,会話要約データセットを生成された会話で拡張することにより,会話要約の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-06-07T04:46:31Z) - KdConv: A Chinese Multi-domain Dialogue Dataset Towards Multi-turn
Knowledge-driven Conversation [66.99734491847076]
我々は,中国語の多分野知識駆動会話データセットKdConvを提案する。
私たちのコーパスには3つのドメイン(映画、音楽、旅行)から4.5Kの会話と、平均19.0の回転数で86Kの発話が含まれています。
論文 参考訳(メタデータ) (2020-04-08T16:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。