論文の概要: EVA: An Open-Domain Chinese Dialogue System with Large-Scale Generative
Pre-Training
- arxiv url: http://arxiv.org/abs/2108.01547v1
- Date: Tue, 3 Aug 2021 14:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 14:09:13.114791
- Title: EVA: An Open-Domain Chinese Dialogue System with Large-Scale Generative
Pre-Training
- Title(参考訳): eva:大規模生成事前学習を伴うオープンドメイン中国語対話システム
- Authors: Hao Zhou, Pei Ke, Zheng Zhang, Yuxian Gu, Yinhe Zheng, Chujie Zheng,
Yida Wang, Chen Henry Wu, Hao Sun, Xiaocong Yang, Bosi Wen, Xiaoyan Zhu,
Minlie Huang, Jie Tang
- Abstract要約: 本研究では,2.8Bパラメータを持つ中国最大の事前学習対話モデルを含む中国語対話システムであるEVAを提案する。
このモデルを構築するために、様々なソーシャルメディアからWDC-Dialogueという名前の中国語対話データセットを収集する。
自動評価と人的評価の実験は、EVAが他の中国の事前学習対話モデルより優れていることを示している。
- 参考スコア(独自算出の注目度): 40.85554509137999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although pre-trained language models have remarkably enhanced the generation
ability of dialogue systems, open-domain Chinese dialogue systems are still
limited by the dialogue data and the model size compared with English ones. In
this paper, we propose EVA, a Chinese dialogue system that contains the largest
Chinese pre-trained dialogue model with 2.8B parameters. To build this model,
we collect the largest Chinese dialogue dataset named WDC-Dialogue from various
public social media. This dataset contains 1.4B context-response pairs and is
used as the pre-training corpus of EVA. Extensive experiments on automatic and
human evaluation show that EVA outperforms other Chinese pre-trained dialogue
models especially in the multi-turn interaction of human-bot conversations.
- Abstract(参考訳): 事前学習された言語モデルは対話システムの生成能力を大幅に向上させたが、オープンドメインの中国語対話システムは英語の対話データやモデルサイズによって制限されている。
本稿では,2.8Bパラメータを持つ中国最大の事前学習対話モデルを含む中国語対話システムであるEVAを提案する。
このモデルを構築するために、様々なソーシャルメディアからWDC-Dialogueという名前の中国語対話データセットを収集する。
このデータセットは1.4Bコンテキスト応答ペアを含み、EVAの事前学習コーパスとして使用される。
自動評価と人間の評価に関する広範囲な実験は、evaが他の中国語の事前学習された対話モデル、特に人間のボット会話のマルチターン対話モデルよりも優れていることを示している。
関連論文リスト
- Let's Go Real Talk: Spoken Dialogue Model for Face-to-Face Conversation [55.043492250775294]
本稿では,新しい対面音声対話モデルを提案する。
ユーザ入力から音声視覚音声を処理し、応答として音声視覚音声を生成する。
また,最初の大規模マルチモーダル音声対話コーパスであるMultiDialogを紹介する。
論文 参考訳(メタデータ) (2024-06-12T04:48:36Z) - Contextual Data Augmentation for Task-Oriented Dialog Systems [8.085645180329417]
本研究では,ユーザターンを生成する新しいダイアログ拡張モデルを構築し,完全なダイアログコンテキストを条件づける。
言語モデルの新しいプロンプト設計と出力の再ランク付けにより、我々のモデルから生成されたダイアログを直接使用して、下流ダイアログシステムのトレーニングを行うことができる。
論文 参考訳(メタデータ) (2023-10-16T13:22:34Z) - ChatPLUG: Open-Domain Generative Dialogue System with Internet-Augmented
Instruction Tuning for Digital Human [76.62897301298699]
ChatPLUGは、デジタルヒューマンアプリケーションのための中国のオープンドメイン対話システムである。
モデルネームは, 自動評価と人的評価の両方において, 最先端の中国語対話システムより優れていることを示す。
高速な推論でスマートスピーカーやインスタントメッセージアプリケーションのような実世界のアプリケーションにモデルネームをデプロイします。
論文 参考訳(メタデータ) (2023-04-16T18:16:35Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - Building a Personalized Dialogue System with Prompt-Tuning [5.942602139622984]
与えられた文字設定(ペルソナ)に基づいて応答する対話システムを構築する。
本稿では,事前学習された大規模言語モデルに対して,学習コストの低いプロンプトチューニングを利用する手法を提案する。
論文 参考訳(メタデータ) (2022-06-11T02:21:11Z) - PANGUBOT: Efficient Generative Dialogue Pre-training from Pre-trained
Language Model [47.858326419602115]
本稿では,PANGUBOTについて紹介する。PANGUBOTは,PANGU-alpha(PLM)をベースとした,中国語の事前学習型対話生成モデルである。
PANGUBOTは最先端の中国語対話システムより優れていることを示す。
また,PANGUBOTは,さらなるトレーニングを行なわずに感情的な反応を生成できることを示した。
論文 参考訳(メタデータ) (2022-03-31T15:09:12Z) - EVA2.0: Investigating Open-Domain Chinese Dialogue Systems with
Large-Scale Pre-Training [73.98154158068134]
EVA2.0は280億のパラメータを持つ大規模な事前訓練された中国の対話モデルである。
提案するEVA2.0は,280億のパラメータを持つ,大規模で事前訓練されたオープンドメインの中国語対話モデルである。
論文 参考訳(メタデータ) (2022-03-17T13:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。