論文の概要: Knowledge-Grounded Conversational Data Augmentation with Generative
Conversational Networks
- arxiv url: http://arxiv.org/abs/2207.11363v1
- Date: Fri, 22 Jul 2022 22:37:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:59:08.521933
- Title: Knowledge-Grounded Conversational Data Augmentation with Generative
Conversational Networks
- Title(参考訳): 生成的会話ネットワークを用いた知識付き会話データ拡張
- Authors: Yen-Ting Lin, Alexandros Papangelis, Seokhwan Kim, Dilek Hakkani-Tur
- Abstract要約: 生成会話ネットワークを用いて会話データを自動的に生成する。
我々は、Topical Chatデータセット上で、知識のない会話に対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 76.11480953550013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While rich, open-domain textual data are generally available and may include
interesting phenomena (humor, sarcasm, empathy, etc.) most are designed for
language processing tasks, and are usually in a non-conversational format. In
this work, we take a step towards automatically generating conversational data
using Generative Conversational Networks, aiming to benefit from the breadth of
available language and knowledge data, and train open domain social
conversational agents. We evaluate our approach on conversations with and
without knowledge on the Topical Chat dataset using automatic metrics and human
evaluators. Our results show that for conversations without knowledge
grounding, GCN can generalize from the seed data, producing novel conversations
that are less relevant but more engaging and for knowledge-grounded
conversations, it can produce more knowledge-focused, fluent, and engaging
conversations. Specifically, we show that for open-domain conversations with
10\% of seed data, our approach performs close to the baseline that uses 100%
of the data, while for knowledge-grounded conversations, it achieves the same
using only 1% of the data, on human ratings of engagingness, fluency, and
relevance.
- Abstract(参考訳): リッチでオープンなドメインのテキストデータは一般に利用可能であり、興味深い現象(暗記、皮肉、共感など)を含むこともあるが、多くは言語処理タスク用に設計されており、通常は非会話形式である。
本研究では、生成会話ネットワークを用いて会話データを自動的に生成し、利用可能な言語や知識データの広さの恩恵を享受し、オープンなドメインの会話エージェントを訓練する。
自動測定と人的エミュレータを用いて,話題のチャットデータセットに関する知識のない会話に対するアプローチを評価した。
以上の結果から,知識基盤のない会話では,GCNはシードデータから一般化することができ,より関連性が少なく,よりエンゲージメントが高く,知識基盤の会話ではより知識に重点を置き,流動的で,活発な会話を創出できることがわかった。
具体的には,オープンドメインの会話と10\%のシードデータとの会話では,100%のデータを使用するベースラインに近い動作をするが,知識の接頭辞では,人間によるエンゲージメント,フラレンシー,関連度において,1%のデータしか利用しない。
関連論文リスト
- Topical-Chat: Towards Knowledge-Grounded Open-Domain Conversations [8.03111197961603]
人工知能(AI)の壮大な課題の1つは、人間との深いオープンドメインの会話ができるソーシャルボットを作ることである。
知識に基づく人間と人間の会話データセットであるTopical-Chatを紹介した。
また、Topical-Chat上で、最先端のエンコーダ・デコーダ対話モデルをいくつかトレーニングし、ベンチマークの自動化と人的評価を行う。
論文 参考訳(メタデータ) (2023-08-23T08:33:14Z) - AutoConv: Automatically Generating Information-seeking Conversations
with Large Language Models [74.10293412011455]
合成会話生成のためのAutoConvを提案する。
具体的には,会話生成問題を言語モデリングタスクとして定式化する。
我々は、情報探索プロセスの特徴を捉えるために、人間同士の会話でLLMを微調整する。
論文 参考訳(メタデータ) (2023-08-12T08:52:40Z) - PK-Chat: Pointer Network Guided Knowledge Driven Generative Dialogue
Model [79.64376762489164]
PK-Chatは、知識グラフ上のポインタネットワークと、事前訓練された言語モデルを組み合わせた、ポインタネットワーク誘導生成対話モデルである。
PK-Chatが対話で生成した単語は、単語リストの予測と外部知識グラフ知識の直接予測から導かれる。
PK-Chatに基づく対話システムは、地球科学の学術シナリオ向けに構築されている。
論文 参考訳(メタデータ) (2023-04-02T18:23:13Z) - PLACES: Prompting Language Models for Social Conversation Synthesis [103.94325597273316]
我々は、プロンプトを用いてソーシャルな会話データセットを合成するために、専門家による会話の小さなセットをコンテキスト内例として使用します。
人工会話の徹底的な評価を,人間による会話と比較して行った。
論文 参考訳(メタデータ) (2023-02-07T05:48:16Z) - Grounding in social media: An approach to building a chit-chat dialogue
model [9.247397520986999]
豊かな人間のような会話能力を持つオープンドメイン対話システムを構築することは、言語生成における根本的な課題の1つである。
知識に基づく対話生成に関する現在の研究は、主にウィキペディアのような事実に基づく構造化知識ソースを法人化または検索することに焦点を当てている。
本手法は,ソーシャルメディア上での人間の反応行動の模倣によって,システムの生会話能力を向上させることを目的とした,より広範かつシンプルなアプローチである。
論文 参考訳(メタデータ) (2022-06-12T09:01:57Z) - KETOD: Knowledge-Enriched Task-Oriented Dialogue [77.59814785157877]
対話システム研究における既存の研究は、主にタスク指向の対話とチャットを独立したドメインとして扱う。
本研究では,タスク指向対話と知識ベースチップチャットを一つのモデルに効果的に統合する方法について検討する。
論文 参考訳(メタデータ) (2022-05-11T16:01:03Z) - Training Conversational Agents with Generative Conversational Networks [74.9941330874663]
我々は、生成会話ネットワークを使用して、自動的にデータを生成し、社会的会話エージェントを訓練する。
自動メトリクスと人的評価器を用いてTopicalChatのアプローチを評価し、10%のシードデータで100%のデータを使用するベースラインに近いパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-15T21:46:39Z) - A Neural Conversation Generation Model via Equivalent Shared Memory
Investigation [39.922967513749654]
DRMN(Deep Reading Memory Network)と呼ばれる新しい読み書き・記憶フレームワークを提案する。
DRMNは、発話生成を改善するために、類似した会話の有用な情報を記憶することができる。
弊社のモデルは、正義とeコマースの2つの大規模な会話データセットに適用する。
論文 参考訳(メタデータ) (2021-08-20T13:20:14Z) - Summary Grounded Conversation Generation [10.470157142861174]
入力として会話の要約だけを考えると、事前学習された言語モデルがどのように会話全体を生成できるかを示す。
また,会話要約データセットを生成された会話で拡張することにより,会話要約の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-06-07T04:46:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。