論文の概要: Summary Grounded Conversation Generation
- arxiv url: http://arxiv.org/abs/2106.03337v1
- Date: Mon, 7 Jun 2021 04:46:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:15:30.228993
- Title: Summary Grounded Conversation Generation
- Title(参考訳): 要約 接地会話生成
- Authors: Chulaka Gunasekara, Guy Feigenblat, Benjamin Sznajder, Sachindra
Joshi, David Konopnicki
- Abstract要約: 入力として会話の要約だけを考えると、事前学習された言語モデルがどのように会話全体を生成できるかを示す。
また,会話要約データセットを生成された会話で拡張することにより,会話要約の精度を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 10.470157142861174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many conversation datasets have been constructed in the recent years using
crowdsourcing. However, the data collection process can be time consuming and
presents many challenges to ensure data quality. Since language generation has
improved immensely in recent years with the advancement of pre-trained language
models, we investigate how such models can be utilized to generate entire
conversations, given only a summary of a conversation as the input. We explore
three approaches to generate summary grounded conversations, and evaluate the
generated conversations using automatic measures and human judgements. We also
show that the accuracy of conversation summarization can be improved by
augmenting a conversation summarization dataset with generated conversations.
- Abstract(参考訳): 近年,クラウドソーシングによって会話データセットが構築されている。
しかし、データ収集プロセスは時間がかかり、データ品質を保証するために多くの課題を提示します。
近年,事前学習型言語モデルの進歩により言語生成が飛躍的に向上しているため,会話の要約のみを入力として,そのようなモデルがどのように会話全体を生成するかを検討する。
要約的な会話を生成するための3つのアプローチを検討し,自動的尺度と人的判断を用いて生成した会話を評価する。
また,生成した会話を用いた会話要約データセットの強化により,会話要約の精度が向上することを示す。
関連論文リスト
- Evaluating Large Language Models in Semantic Parsing for Conversational
Question Answering over Knowledge Graphs [6.869834883252353]
本稿では,この課題に対して事前訓練を受けていない大規模言語モデルの性能を評価する。
その結果,大規模言語モデルでは対話からグラフクエリを生成することができることがわかった。
論文 参考訳(メタデータ) (2024-01-03T12:28:33Z) - Large Language Models as Zero-Shot Conversational Recommenders [52.57230221644014]
ゼロショット設定における代表的大言語モデルを用いた会話推薦タスクに関する実証的研究を行った。
我々は、人気のあるディスカッションサイトをスクラップして、レコメンデーション関連の会話のデータセットを構築した。
我々は、微調整なしでも、大規模な言語モデルは既存の微調整された会話レコメンデーションモデルより優れていることを観察する。
論文 参考訳(メタデータ) (2023-08-19T15:29:45Z) - AutoConv: Automatically Generating Information-seeking Conversations
with Large Language Models [74.10293412011455]
合成会話生成のためのAutoConvを提案する。
具体的には,会話生成問題を言語モデリングタスクとして定式化する。
我々は、情報探索プロセスの特徴を捉えるために、人間同士の会話でLLMを微調整する。
論文 参考訳(メタデータ) (2023-08-12T08:52:40Z) - PLACES: Prompting Language Models for Social Conversation Synthesis [103.94325597273316]
我々は、プロンプトを用いてソーシャルな会話データセットを合成するために、専門家による会話の小さなセットをコンテキスト内例として使用します。
人工会話の徹底的な評価を,人間による会話と比較して行った。
論文 参考訳(メタデータ) (2023-02-07T05:48:16Z) - Talk the Walk: Synthetic Data Generation for Conversational Music
Recommendation [62.019437228000776]
本稿では,広く利用可能なアイテムコレクションにおいて,符号化された専門知識を活用することで,現実的な高品質な会話データを生成するTalkWalkを提案する。
人間の収集したデータセットで100万以上の多様な会話を生成します。
論文 参考訳(メタデータ) (2023-01-27T01:54:16Z) - Knowledge-Grounded Conversational Data Augmentation with Generative
Conversational Networks [76.11480953550013]
生成会話ネットワークを用いて会話データを自動的に生成する。
我々は、Topical Chatデータセット上で、知識のない会話に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-22T22:37:14Z) - Training Conversational Agents with Generative Conversational Networks [74.9941330874663]
我々は、生成会話ネットワークを使用して、自動的にデータを生成し、社会的会話エージェントを訓練する。
自動メトリクスと人的評価器を用いてTopicalChatのアプローチを評価し、10%のシードデータで100%のデータを使用するベースラインに近いパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-15T21:46:39Z) - A Neural Conversation Generation Model via Equivalent Shared Memory
Investigation [39.922967513749654]
DRMN(Deep Reading Memory Network)と呼ばれる新しい読み書き・記憶フレームワークを提案する。
DRMNは、発話生成を改善するために、類似した会話の有用な情報を記憶することができる。
弊社のモデルは、正義とeコマースの2つの大規模な会話データセットに適用する。
論文 参考訳(メタデータ) (2021-08-20T13:20:14Z) - Beyond Goldfish Memory: Long-Term Open-Domain Conversation [43.37382902468993]
複数のチャットセッションからなる人間と人間のデータセットをリリースする。
この長期会話環境では、既存のデータセットでトレーニングされた既存のモデルがどのようにうまく機能するかを示す。
特に,過去の会話を要約し,思い出させる機能を備えた検索拡張手法や手法を見いだす。
論文 参考訳(メタデータ) (2021-07-15T19:01:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。