論文の概要: Topic-switch adapted Japanese Dialogue System based on PLATO-2
- arxiv url: http://arxiv.org/abs/2302.11280v1
- Date: Wed, 22 Feb 2023 10:57:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 15:30:37.183504
- Title: Topic-switch adapted Japanese Dialogue System based on PLATO-2
- Title(参考訳): plato-2に基づく話題スイッチ対応日本語対話システム
- Authors: Donghuo Zeng, Jianming Wu, Yanan Wang, Kazunori Matsumoto, Gen
Hattori, Kazushi Ikeda
- Abstract要約: 対話グラフを用いてPLATO-2を訓練し,大規模対話システムPLATO-JDSを構築する。
我々は,4つの指標,すなわちコヒーレンス,情報性,エンゲージメント,人間性に関するモデルを用いて,ユーザエクスペリエンスを評価する。
提案したPLATO-JDSは,人間のチャット戦略を用いた評価において平均1.500のスコアを得る。
- 参考スコア(独自算出の注目度): 8.755126612315795
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large-scale open-domain dialogue systems such as PLATO-2 have achieved
state-of-the-art scores in both English and Chinese. However, little work
explores whether such dialogue systems also work well in the Japanese language.
In this work, we create a large-scale Japanese dialogue dataset,
Dialogue-Graph, which contains 1.656 million dialogue data in a tree structure
from News, TV subtitles, and Wikipedia corpus. Then, we train PLATO-2 using
Dialogue-Graph to build a large-scale Japanese dialogue system, PLATO-JDS. In
addition, to improve the PLATO-JDS in the topic switch issue, we introduce a
topic-switch algorithm composed of a topic discriminator to switch to a new
topic when user input differs from the previous topic. We evaluate the user
experience by using our model with respect to four metrics, namely, coherence,
informativeness, engagingness, and humanness. As a result, our proposed
PLATO-JDS achieves an average score of 1.500 for the human evaluation with
human-bot chat strategy, which is close to the maximum score of 2.000 and
suggests the high-quality dialogue generation capability of PLATO-2 in
Japanese. Furthermore, our proposed topic-switch algorithm achieves an average
score of 1.767 and outperforms PLATO-JDS by 0.267, indicating its effectiveness
in improving the user experience of our system.
- Abstract(参考訳): PLATO-2のような大規模オープンドメイン対話システムは、英語と中国語の両方で最先端のスコアを獲得した。
しかし、これらの対話システムが日本語でもうまく機能するかどうかは、ほとんど研究されていない。
本研究では,ニュース,テレビ字幕,ウィキペディアコーパスのツリー構造に6億6600万の対話データを含む大規模日本語対話データセットであるダイアロググラフを作成する。
そして,対話グラフを用いてPLATO-2を訓練し,大規模対話システムPLATO-JDSを構築する。
また,トピックスイッチ問題におけるPLATO-JDSの改善のために,トピック識別器で構成されるトピックスウィッチアルゴリズムを導入し,ユーザ入力が以前のトピックと異なる場合に新しいトピックに切り替える。
我々は,4つの指標,すなわちコヒーレンス,情報性,エンゲージメント,人間性に関するモデルを用いて,ユーザエクスペリエンスを評価する。
その結果,提案するPLATO-JDSは,人間のチャット戦略を用いた評価において平均1.500点のスコアを達成し,そのスコアは最大2.000点に近づき,日本語におけるPLATO-2の対話能力の向上を示唆している。
さらに,提案アルゴリズムは平均スコア1.767を達成し,PLATO-JDSを0.267で上回り,システムのユーザエクスペリエンス向上に有効であることを示す。
関連論文リスト
- JMultiWOZ: A Large-Scale Japanese Multi-Domain Task-Oriented Dialogue Dataset [3.1311340484197814]
JMultiWOZは日本語初の大規模マルチドメインタスク指向対話データセットである。
我々は,最先端手法の対話状態追跡と応答生成能力について検討した。
論文 参考訳(メタデータ) (2024-03-26T02:01:18Z) - Semi-Supervised Knowledge-Grounded Pre-training for Task-Oriented Dialog
Systems [25.164042288343683]
半教師付き/強化TODシステム構築における最初の課題である,SereTOD 2022 チャレンジのトラック2のモデルを提案する。
我々は,対話履歴とローカルKBを入力として定式化し,システム応答を予測するための知識基底ダイアログモデルを構築した。
また,ラベル付きデータとラベルなしデータの両方で,半教師付き事前学習を行う。
論文 参考訳(メタデータ) (2022-10-17T09:10:03Z) - A Benchmark for Understanding and Generating Dialogue between Characters
in Stories [75.29466820496913]
本研究は,機械が物語の対話を理解・生成できるかどうかを探求する最初の研究である。
マスク付き対話生成と対話話者認識という2つの新しいタスクを提案する。
DialStoryの自動評価と手動評価で既存のモデルをテストすることで,提案課題の難しさを示す。
論文 参考訳(メタデータ) (2022-09-18T10:19:04Z) - Persona-Knowledge Dialogue Multi-Context Retrieval and Enhanced Decoding
Methods [1.066048003460524]
我々はペルソナ・知識の識別と応答生成タスクに取り組む。
ニューラルQ&A検索モデルと互換性のある情報拡張戦略を設計する。
我々は、93.99%のグラウンディング精度と23.62のSacreBLEUスコアを持つ公式の指標でSOTAを達成している。
論文 参考訳(メタデータ) (2022-07-28T07:19:08Z) - EVA2.0: Investigating Open-Domain Chinese Dialogue Systems with
Large-Scale Pre-Training [73.98154158068134]
EVA2.0は280億のパラメータを持つ大規模な事前訓練された中国の対話モデルである。
提案するEVA2.0は,280億のパラメータを持つ,大規模で事前訓練されたオープンドメインの中国語対話モデルである。
論文 参考訳(メタデータ) (2022-03-17T13:33:17Z) - UniDS: A Unified Dialogue System for Chit-Chat and Task-oriented
Dialogues [59.499965460525694]
上記の2つのスキルを備えた統合対話システム(UniDS)を提案する。
我々は、チャットとタスク指向の対話の両方に対応可能な統合対話データスキーマを設計する。
我々は、事前訓練されたチャット対話モデルから混合対話データでUniDSを訓練する。
論文 参考訳(メタデータ) (2021-10-15T11:56:47Z) - EVA: An Open-Domain Chinese Dialogue System with Large-Scale Generative
Pre-Training [40.85554509137999]
本研究では,2.8Bパラメータを持つ中国最大の事前学習対話モデルを含む中国語対話システムであるEVAを提案する。
このモデルを構築するために、様々なソーシャルメディアからWDC-Dialogueという名前の中国語対話データセットを収集する。
自動評価と人的評価の実験は、EVAが他の中国の事前学習対話モデルより優れていることを示している。
論文 参考訳(メタデータ) (2021-08-03T14:55:24Z) - Modeling Long Context for Task-Oriented Dialogue State Generation [51.044300192906995]
本稿では,シンプルで効果的な発話タグ付け手法と双方向言語モデルを用いたマルチタスク学習モデルを提案する。
提案手法は,入力対話コンテキストシーケンスが長い場合に,ベースラインの性能が著しく低下する,という問題を解決する。
本実験では,MultiWOZ 2.0データセットにおいて,ベースラインに対して7.03%の相対的改善を実現し,新しい最先端のジョイントゴール精度を52.04%に設定した。
論文 参考訳(メタデータ) (2020-04-29T11:02:25Z) - Paraphrase Augmented Task-Oriented Dialog Generation [68.1790912977053]
本稿では,パラフレーズモデルと応答生成モデルを協調訓練するパラフレーズ拡張応答生成(PARG)フレームワークを提案する。
また、ダイアログ状態とダイアログアクトラベルに基づいて、パラフレーズトレーニングデータセットを自動構築する手法も設計する。
論文 参考訳(メタデータ) (2020-04-16T05:12:36Z) - CrossWOZ: A Large-Scale Chinese Cross-Domain Task-Oriented Dialogue
Dataset [58.910961297314415]
CrossWOZは、中国のCross-Domain Wizard-of-Ozタスク指向データセットとしては初めての大規模である。
6K対話セッションと、ホテル、レストラン、アトラクション、メトロ、タクシーを含む5つのドメインの102K発話が含まれている。
論文 参考訳(メタデータ) (2020-02-27T03:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。