論文の概要: XPersona: Evaluating Multilingual Personalized Chatbot
- arxiv url: http://arxiv.org/abs/2003.07568v2
- Date: Wed, 8 Apr 2020 07:38:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 21:12:06.987045
- Title: XPersona: Evaluating Multilingual Personalized Chatbot
- Title(参考訳): XPersona: 多言語パーソナライズされたチャットボットの評価
- Authors: Zhaojiang Lin, Zihan Liu, Genta Indra Winata, Samuel Cahyawijaya,
Andrea Madotto, Yejin Bang, Etsuko Ishii, Pascale Fung
- Abstract要約: 我々はペルソナ・チャットの多言語拡張(XPersona)を提案する。
我々のデータセットには、多言語パーソナライズされたエージェントの構築と評価のための英語以外の6言語でのペルソナ会話が含まれています。
- 参考スコア(独自算出の注目度): 76.00426517401894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized dialogue systems are an essential step toward better
human-machine interaction. Existing personalized dialogue agents rely on
properly designed conversational datasets, which are mostly monolingual (e.g.,
English), which greatly limits the usage of conversational agents in other
languages. In this paper, we propose a multi-lingual extension of Persona-Chat,
namely XPersona. Our dataset includes persona conversations in six different
languages other than English for building and evaluating multilingual
personalized agents. We experiment with both multilingual and cross-lingual
trained baselines, and evaluate them against monolingual and
translation-pipeline models using both automatic and human evaluation.
Experimental results show that the multilingual trained models outperform the
translation-pipeline and that they are on par with the monolingual models, with
the advantage of having a single model across multiple languages. On the other
hand, the state-of-the-art cross-lingual trained models achieve inferior
performance to the other models, showing that cross-lingual conversation
modeling is a challenging task. We hope that our dataset and baselines will
accelerate research in multilingual dialogue systems.
- Abstract(参考訳): パーソナライズされた対話システムは、人間と機械の対話を改善するための重要なステップである。
既存のパーソナライズされた対話エージェントは、主に単言語(英語など)である適切に設計された会話データセットに依存しており、他の言語での会話エージェントの使用を著しく制限している。
本稿では,Persona-Chatの多言語拡張,すなわちXPersonaを提案する。
我々のデータセットには、多言語パーソナライズされたエージェントの構築と評価のための英語以外の6言語でのペルソナ会話が含まれている。
本研究では,多言語・多言語訓練ベースラインを実験し,自動評価と人文評価の両方を用いて,単言語・翻訳パイプラインモデルに対する評価を行った。
実験結果から,多言語学習モデルは翻訳ピペリンより優れ,単言語モデルと同等であり,複数言語にまたがる単一モデルを持つことの利点が示された。
一方、最先端の言語間学習モデルは他のモデルよりも劣る性能を達成し、言語間会話モデリングが難しい課題であることを示す。
当社のデータセットとベースラインが多言語対話システムの研究を加速することを願っています。
関連論文リスト
- Multilingual Turn-taking Prediction Using Voice Activity Projection [25.094622033971643]
本稿では,音声対話における音声活動予測モデルである音声活動予測(VAP)の多言語データへの適用について検討する。
その結果, ある言語で訓練された単言語VAPモデルでは, 他の言語に適用してもよい予測が得られないことが示唆された。
3つの言語すべてでトレーニングされた多言語モデルは、すべての言語にわたるモノリンガルモデルと同等の予測性能を示す。
論文 参考訳(メタデータ) (2024-03-11T07:50:29Z) - Analyzing the Mono- and Cross-Lingual Pretraining Dynamics of
Multilingual Language Models [73.11488464916668]
本研究では,多言語事前学習プロセスのダイナミクスについて検討する。
我々は,XLM-Rプレトレーニング全体から抽出したチェックポイントを,一連の言語的タスクを用いて探索する。
分析の結果,より複雑なものよりも低レベルな言語スキルが得られ,早期に高い言語性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-05-24T03:35:00Z) - Exploring Teacher-Student Learning Approach for Multi-lingual
Speech-to-Intent Classification [73.5497360800395]
複数の言語をサポートするエンドツーエンドシステムを開発した。
我々は、事前訓練された多言語自然言語処理モデルからの知識を利用する。
論文 参考訳(メタデータ) (2021-09-28T04:43:11Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - How Good is Your Tokenizer? On the Monolingual Performance of
Multilingual Language Models [96.32118305166412]
本研究では,5つの単一言語下流タスクのセットに基づいて,事前学習可能な単言語モデルを持つ9種類の言語について検討した。
多言語モデルの語彙で適切に表現された言語は、単言語モデルよりも性能が著しく低下する。
論文 参考訳(メタデータ) (2020-12-31T14:11:00Z) - Evaluating Cross-Lingual Transfer Learning Approaches in Multilingual
Conversational Agent Models [1.52292571922932]
自然言語理解(NLU)モデルのための汎用多言語モデルフレームワークを提案する。
これらの多言語モデルが,言語固有のテストデータにまたがる単言語モデルと比較して,同等あるいは優れた性能に到達できることを示す。
論文 参考訳(メタデータ) (2020-12-07T17:14:52Z) - Towards Fully Bilingual Deep Language Modeling [1.3455090151301572]
両言語のパフォーマンスを損なうことなく、2つの遠隔関連言語に対してバイリンガルモデルを事前学習することが可能かを検討する。
フィンランド英語のバイリンガルBERTモデルを作成し、対応するモノリンガルモデルを評価するために使用されるデータセットの性能を評価する。
我々のバイリンガルモデルは、GLUE上のGoogleのオリジナル英語BERTと同等に動作し、フィンランドのNLPタスクにおける単言語フィンランドBERTのパフォーマンスとほぼ一致します。
論文 参考訳(メタデータ) (2020-10-22T12:22:50Z) - Multilingual Translation with Extensible Multilingual Pretraining and
Finetuning [77.33262578776291]
これまでの研究は、bitextで微調整することで機械翻訳システムを作成できることを実証してきた。
多言語翻訳モデルは多言語微調整により作成可能であることを示す。
事前訓練されたモデルは、性能を損なうことなく、追加の言語を組み込むように拡張できることを実証する。
論文 参考訳(メタデータ) (2020-08-02T05:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。