論文の概要: Are the Multilingual Models Better? Improving Czech Sentiment with
Transformers
- arxiv url: http://arxiv.org/abs/2108.10640v1
- Date: Tue, 24 Aug 2021 10:50:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 14:22:24.865474
- Title: Are the Multilingual Models Better? Improving Czech Sentiment with
Transformers
- Title(参考訳): 多言語モデルの方が優れているか?
トランスフォーマーによるチェコ感覚の向上
- Authors: Pavel P\v{r}ib\'a\v{n}, Josef Steinberger
- Abstract要約: チェコ語における極性検出の課題を3つの感情極性データセットを用いて検討する。
我々は5つの多言語モデルと3つの単言語モデルを用いて微調整および実験を行う。
3つのデータセットすべてに対して、最先端の新たな結果が得られます。
- 参考スコア(独自算出の注目度): 1.5229257192293197
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we aim at improving Czech sentiment with transformer-based
models and their multilingual versions. More concretely, we study the task of
polarity detection for the Czech language on three sentiment polarity datasets.
We fine-tune and perform experiments with five multilingual and three
monolingual models. We compare the monolingual and multilingual models'
performance, including comparison with the older approach based on recurrent
neural networks. Furthermore, we test the multilingual models and their ability
to transfer knowledge from English to Czech (and vice versa) with zero-shot
cross-lingual classification. Our experiments show that the huge multilingual
models can overcome the performance of the monolingual models. They are also
able to detect polarity in another language without any training data, with
performance not worse than 4.4 % compared to state-of-the-art monolingual
trained models. Moreover, we achieved new state-of-the-art results on all three
datasets.
- Abstract(参考訳): 本稿では,トランスフォーマーモデルとその多言語バージョンを用いたチェコ語感情の向上を目指す。
より具体的には、3つの感情極性データセットに基づくチェコ語の極性検出の課題について検討する。
5つの多言語モデルと3つの単言語モデルを用いて微調整および実験を行った。
単言語モデルと多言語モデルのパフォーマンスを比較し、繰り返しニューラルネットワークに基づく従来のアプローチと比較する。
さらに、多言語モデルとその知識を英語からチェコ語へ(そしてその逆も)ゼロショットのクロスリンガル分類で伝達する能力をテストする。
実験により,巨大多言語モデルが単言語モデルの性能を克服できることを示した。
彼らはまた、訓練データなしで他の言語の極性を検出することができ、最先端のモノリンガル訓練モデルと比較してパフォーマンスは4.4 %以下である。
さらに,3つのデータセットについて,最新の結果を得た。
関連論文リスト
- Do Multilingual Large Language Models Mitigate Stereotype Bias? [9.31741279000585]
この研究は、英語、ドイツ語、フランス語、イタリア語、スペイン語で同じ大きさの6つのLLMを体系的に訓練する。
単言語モデルと比較して,多言語モデルの方がバイアスの低いだけでなく,予測精度も優れていることが観察された。
論文 参考訳(メタデータ) (2024-07-08T08:46:50Z) - Language Versatilists vs. Specialists: An Empirical Revisiting on
Multilingual Transfer Ability [11.000499414131324]
我々は4種類の推論タスクにまたがって実験を行う。
多言語事前学習モデルは、必ずしも英語中心のモデルよりも優れているとは限らない。
英語は適切なソース言語ではないようで、英語中心のモデルがスケールアップされると、ソース言語の選択が重要になりにくくなります。
論文 参考訳(メタデータ) (2023-06-11T14:03:09Z) - Learning Cross-lingual Visual Speech Representations [108.68531445641769]
言語横断的な自己監督型視覚表現学習は、ここ数年、研究トピックとして成長している。
我々は最近提案したRAVEn(Raw Audio-Visual Speechs)フレームワークを用いて,未ラベルデータを用いた音声-視覚モデルの事前学習を行う。
1)データ量が多いマルチ言語モデルはモノリンガルモデルよりも優れているが、データの量を維持すると、モノリンガルモデルの性能が向上する傾向にある。
論文 参考訳(メタデータ) (2023-03-14T17:05:08Z) - Are Pretrained Multilingual Models Equally Fair Across Languages? [0.0]
この研究は多言語モデルの群フェアネスを調査し、これらのモデルが言語間で等しく公平かどうかを問う。
我々は、MozArt上の3つの多言語モデル(mBERT、XLM-R、mT5)を評価し、これらのモデルが4つの対象言語で異なるグループ格差を示すことを示す。
論文 参考訳(メタデータ) (2022-10-11T13:59:19Z) - MonoByte: A Pool of Monolingual Byte-level Language Models [4.491765479948667]
同じ構成で厳格に事前訓練された10のモノリンガルバイトレベルのモデルをリリースする。
トークンを含まないため、目に見えないトークン埋め込みの問題は排除される。
QAタスクとNLIタスクの実験は、我々のモノリンガルモデルがマルチリンガルモデルと競合する性能を達成することを示す。
論文 参考訳(メタデータ) (2022-09-22T14:32:48Z) - Analyzing the Mono- and Cross-Lingual Pretraining Dynamics of
Multilingual Language Models [73.11488464916668]
本研究では,多言語事前学習プロセスのダイナミクスについて検討する。
我々は,XLM-Rプレトレーニング全体から抽出したチェックポイントを,一連の言語的タスクを用いて探索する。
分析の結果,より複雑なものよりも低レベルな言語スキルが得られ,早期に高い言語性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-05-24T03:35:00Z) - Slovene SuperGLUE Benchmark: Translation and Evaluation [0.0]
我々は,スロヴェニアの機械と人間を併用したSuperGLUEベンチマークを提案する。
我々は、翻訳されたデータセットを、モノリンガル、クロスリンガル、マルチリンガルの3つのモードで評価する。
論文 参考訳(メタデータ) (2022-02-10T12:46:06Z) - Are Multilingual Models Effective in Code-Switching? [57.78477547424949]
多言語モデルの有効性を検討し,複合言語設定の能力と適応性について検討する。
この結果から,事前学習した多言語モデルでは,コードスイッチングにおける高品質な表現が必ずしも保証されないことが示唆された。
論文 参考訳(メタデータ) (2021-03-24T16:20:02Z) - How Good is Your Tokenizer? On the Monolingual Performance of
Multilingual Language Models [96.32118305166412]
本研究では,5つの単一言語下流タスクのセットに基づいて,事前学習可能な単言語モデルを持つ9種類の言語について検討した。
多言語モデルの語彙で適切に表現された言語は、単言語モデルよりも性能が著しく低下する。
論文 参考訳(メタデータ) (2020-12-31T14:11:00Z) - Leveraging Monolingual Data with Self-Supervision for Multilingual
Neural Machine Translation [54.52971020087777]
モノリンガルデータを使用することで、マルチリンガルモデルにおける低リソース言語の翻訳品質が大幅に向上する。
自己監督は多言語モデルのゼロショット翻訳品質を改善する。
並列データやバックトランスレーションなしで、ro-en翻訳で最大33のBLEUを得る。
論文 参考訳(メタデータ) (2020-05-11T00:20:33Z) - Knowledge Distillation for Multilingual Unsupervised Neural Machine
Translation [61.88012735215636]
unsupervised neural machine translation (UNMT) は、最近、いくつかの言語対に対して顕著な結果を得た。
UNMTは単一の言語ペア間でのみ翻訳することができ、同時に複数の言語ペアに対して翻訳結果を生成することはできない。
本稿では,1つのエンコーダと1つのデコーダを用いて13言語間を翻訳する簡単な手法を実証的に紹介する。
論文 参考訳(メタデータ) (2020-04-21T17:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。