論文の概要: MDIA: A Benchmark for Multilingual Dialogue Generation in 46 Languages
- arxiv url: http://arxiv.org/abs/2208.13078v1
- Date: Sat, 27 Aug 2022 19:35:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 13:40:20.578820
- Title: MDIA: A Benchmark for Multilingual Dialogue Generation in 46 Languages
- Title(参考訳): MDIA:46言語における多言語対話生成ベンチマーク
- Authors: Qingyu Zhang, Xiaoyu Shen, Ernie Chang, Jidong Ge and Pengke Chen
- Abstract要約: mDIAは、低-高ソース言語間の対話生成のための最初の大規模多言語ベンチマークである。
19の言語ファミリーにわたる46の言語で、実際の会話をカバーしている。
- 参考スコア(独自算出の注目度): 15.849621393068885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Owing to the lack of corpora for low-resource languages, current works on
dialogue generation have mainly focused on English. In this paper, we present
mDIA, the first large-scale multilingual benchmark for dialogue generation
across low- to high-resource languages. It covers real-life conversations in 46
languages across 19 language families. We present baseline results obtained by
fine-tuning the multilingual, non-dialogue-focused pre-trained model mT5 as
well as English-centric, dialogue-focused pre-trained chatbot DialoGPT. The
results show that mT5-based models perform better on sacreBLEU and BertScore
but worse on diversity. Even though promising results are found in few-shot and
zero-shot scenarios, there is a large gap between the generation quality in
English and other languages. We hope that the release of mDIA could encourage
more works on multilingual dialogue generation to promote language diversity.
- Abstract(参考訳): 低リソース言語のためのコーパスがないため、対話生成に関する現在の研究は主に英語に焦点を当てている。
本稿では,低-高リソース言語間の対話生成のための最初の大規模多言語ベンチマークであるmdiaを提案する。
19の言語ファミリーの46言語で実際の会話をカバーしている。
本研究は,多言語・非対話型事前学習モデルmT5と,英語中心の対話型事前学習チャットボットDialoGPTを微調整したベースライン結果を示す。
その結果,mT5ベースのモデルではサクレBLEUやBertScoreの方が優れていたが,多様性は優れていた。
数ショットとゼロショットのシナリオで有望な結果が見つかるが、英語と他の言語の世代品質の間には大きなギャップがある。
言語多様性を促進するために,mDIAのリリースが多言語対話生成へのさらなる取り組みを促進することを期待している。
関連論文リスト
- Multilingual Word Embeddings for Low-Resource Languages using Anchors
and a Chain of Related Languages [54.832599498774464]
我々は,言語連鎖に基づく新しいアプローチにより,多言語単語埋め込み(MWE)を構築することを提案する。
リソースの豊富なソースから始めて、ターゲットに到達するまで各言語をチェーンに順次追加することで、MWEを一度に1つの言語で構築します。
本手法は,4つの低リソース(5Mトークン)と4つの中程度の低リソース(50M)ターゲット言語を含む4つの言語ファミリーを対象としたバイリンガルレキシコン誘導法について検討した。
論文 参考訳(メタデータ) (2023-11-21T09:59:29Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z) - Large Multilingual Models Pivot Zero-Shot Multimodal Learning across Languages [76.35234803589412]
MPMは、英語以外の言語で大規模なマルチモーダルモデルを訓練するための効果的な訓練パラダイムである。
画像・テキスト・テキスト・画像生成における大規模なマルチモーダルモデルVisCPMを構築し,中国語の最先端(オープンソース)性能を実現する。
論文 参考訳(メタデータ) (2023-08-23T09:55:41Z) - Investigating the Translation Performance of a Large Multilingual
Language Model: the Case of BLOOM [8.858671209228536]
複数のデータセットにまたがる機械翻訳性能を評価することで,BLOOMの多言語能力に着目する。
本稿では, 素早い設計, モデルサイズ, 言語間移動, 帰納的文脈の利用など, 様々な側面について検討する。
論文 参考訳(メタデータ) (2023-03-03T13:23:42Z) - Crosslingual Generalization through Multitask Finetuning [80.8822603322471]
マルチタスク誘導ファインタニング(MTF)は、大きな言語モデルがゼロショット設定で新しいタスクに一般化するのに役立つことが示されている。
MTFを事前訓練された多言語BLOOMおよびmT5モデルファミリーに適用し、BLOOMZおよびmT0と呼ばれる微調整された変種を生成する。
英語のプロンプトを用いた英語タスクにおける多言語多言語モデルの微調整により、非英語言語へのタスク一般化が可能となる。
論文 参考訳(メタデータ) (2022-11-03T13:19:32Z) - MulZDG: Multilingual Code-Switching Framework for Zero-shot Dialogue
Generation [23.711903266714508]
MulZDGは、大規模なトレーニングサンプルを持つ英語コーパスから、ゼロサンプルを持つ非英語コーパスへ、知識を効果的に転送することができる。
まず、単言語英語データセットからランダムに選択された翻訳発話を用いて、多言語コードスイッチング対話データセットを構築する。
次に、MulZDGを用いて、コードスイッチングデータセットに基づく統合多言語対話モデルを訓練する。
論文 参考訳(メタデータ) (2022-08-18T04:28:20Z) - Overcoming Language Disparity in Online Content Classification with
Multimodal Learning [22.73281502531998]
大規模言語モデルは、テキスト検出と分類タスクのための最先端のソリューションを開発するための標準となっている。
高度な計算技術と資源の開発は、英語に不相応に焦点が当てられている。
マルチモーダル機械学習を用いて画像に含まれる情報を統合するという約束を探求する。
論文 参考訳(メタデータ) (2022-05-19T17:56:02Z) - Investigating Effect of Dialogue History in Multilingual Task Oriented
Dialogue Systems [2.695466667982714]
2021年12月までに、世界で最も人気のあるスマートスピーカーの1つであるAlexaは、9つの異なる言語をサポートすることができる。
他の言語での仮想アシスタントのトレーニングは、特に低リソース言語では、しばしば困難である。
我々は多言語タスク指向対話システムのための効率的かつ効果的な学習ソリューションを考案する。
論文 参考訳(メタデータ) (2021-12-23T02:27:10Z) - Few-shot Learning with Multilingual Language Models [66.49496434282564]
多様な言語群をカバーするバランスの取れたコーパス上で,多言語の自動回帰言語モデルを訓練する。
私たちの最大のモデルは、20以上の代表言語で数ショットの学習において、新しい最先端の技術を定めています。
本稿では,モデルがどこで成功し,失敗するかを詳細に分析し,特に言語間の文脈内学習を可能にすることを示す。
論文 参考訳(メタデータ) (2021-12-20T16:52:35Z) - Probing Multilingual Language Models for Discourse [0.0]
XLM-RoBERTaファミリーのモデルが常に最高のパフォーマンスを示していることが分かりました。
また, モデル蒸留は, 文表現の言語間移動能力に悪影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-09T06:34:21Z) - Multilingual Translation with Extensible Multilingual Pretraining and
Finetuning [77.33262578776291]
これまでの研究は、bitextで微調整することで機械翻訳システムを作成できることを実証してきた。
多言語翻訳モデルは多言語微調整により作成可能であることを示す。
事前訓練されたモデルは、性能を損なうことなく、追加の言語を組み込むように拡張できることを実証する。
論文 参考訳(メタデータ) (2020-08-02T05:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。