論文の概要: Slovene SuperGLUE Benchmark: Translation and Evaluation
- arxiv url: http://arxiv.org/abs/2202.04994v1
- Date: Thu, 10 Feb 2022 12:46:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 23:37:00.514400
- Title: Slovene SuperGLUE Benchmark: Translation and Evaluation
- Title(参考訳): Slovene SuperGLUEベンチマーク: 翻訳と評価
- Authors: Ale\v{s} \v{Z}agar, Marko Robnik-\v{S}ikonja
- Abstract要約: 我々は,スロヴェニアの機械と人間を併用したSuperGLUEベンチマークを提案する。
我々は、翻訳されたデータセットを、モノリンガル、クロスリンガル、マルチリンガルの3つのモードで評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a Slovene combined machine-human translated SuperGLUE benchmark.
We describe the translation process and problems arising due to differences in
morphology and grammar. We evaluate the translated datasets in several modes:
monolingual, cross-lingual, and multilingual, taking into account differences
between machine and human translated training sets. The results show that the
monolingual Slovene SloBERTa model is superior to massively multilingual and
trilingual BERT models, but these also show a good cross-lingual performance on
certain tasks. The performance of Slovene models still lags behind the best
English models.
- Abstract(参考訳): 我々は,スロヴェニアの機械と人間を併用したSuperGLUEベンチマークを提案する。
本稿では,形態と文法の違いによる翻訳過程と問題点について述べる。
機械翻訳訓練セットと人間の翻訳訓練セットの違いを考慮に入れて,単言語,クロス言語,多言語などいくつかのモードにおける翻訳データセットの評価を行った。
その結果,単言語性スロベニア語slobertaモデルは,多言語性および三言語型bertモデルよりも優れていることが示された。
スロベニアのモデルのパフォーマンスは、まだ最高のイギリスモデルより遅れている。
関連論文リスト
- Investigating the Translation Performance of a Large Multilingual
Language Model: the Case of BLOOM [8.858671209228536]
複数のデータセットにまたがる機械翻訳性能を評価することで,BLOOMの多言語能力に着目する。
本稿では, 素早い設計, モデルサイズ, 言語間移動, 帰納的文脈の利用など, 様々な側面について検討する。
論文 参考訳(メタデータ) (2023-03-03T13:23:42Z) - MALM: Mixing Augmented Language Modeling for Zero-Shot Machine
Translation [0.0]
大規模な事前訓練された言語モデルは、NLPに顕著な進歩をもたらした。
ゼロショット多言語機械翻訳における自己教師付き事前学習とデータ拡張の有効性を実証的に実証した。
論文 参考訳(メタデータ) (2022-10-01T17:01:30Z) - Breaking Down Multilingual Machine Translation [74.24795388967907]
マルチ言語学習は一般にエンコーダにとって有益であるが,ローソース言語(LRL)ではデコーダにのみ有益であることを示す。
LRLの多言語モデルと一対多モデルは、Aharoniらによって報告された最良の結果よりも優れています。
論文 参考訳(メタデータ) (2021-10-15T14:57:12Z) - Distributionally Robust Multilingual Machine Translation [94.51866646879337]
本稿では,分散的ロバストな最適化に基づくMNMT(Multilingual Neural Machine Translation)の新しい学習目標を提案する。
この目的を,反復的最適応答方式を用いて,大規模翻訳コーパスに対して実用的に最適化する方法を示す。
本手法は,多対一の翻訳設定と多対多の翻訳設定の両方において,平均と言語毎のパフォーマンスにおいて,強いベースライン法より一貫して優れる。
論文 参考訳(メタデータ) (2021-09-09T03:48:35Z) - Are the Multilingual Models Better? Improving Czech Sentiment with
Transformers [1.5229257192293197]
チェコ語における極性検出の課題を3つの感情極性データセットを用いて検討する。
我々は5つの多言語モデルと3つの単言語モデルを用いて微調整および実験を行う。
3つのデータセットすべてに対して、最先端の新たな結果が得られます。
論文 参考訳(メタデータ) (2021-08-24T10:50:01Z) - How Good is Your Tokenizer? On the Monolingual Performance of
Multilingual Language Models [96.32118305166412]
本研究では,5つの単一言語下流タスクのセットに基づいて,事前学習可能な単言語モデルを持つ9種類の言語について検討した。
多言語モデルの語彙で適切に表現された言語は、単言語モデルよりも性能が著しく低下する。
論文 参考訳(メタデータ) (2020-12-31T14:11:00Z) - Multilingual Translation with Extensible Multilingual Pretraining and
Finetuning [77.33262578776291]
これまでの研究は、bitextで微調整することで機械翻訳システムを作成できることを実証してきた。
多言語翻訳モデルは多言語微調整により作成可能であることを示す。
事前訓練されたモデルは、性能を損なうことなく、追加の言語を組み込むように拡張できることを実証する。
論文 参考訳(メタデータ) (2020-08-02T05:36:55Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z) - Learning to Scale Multilingual Representations for Vision-Language Tasks [51.27839182889422]
SMALRの有効性は、これまでビジョン言語タスクでサポートされた2倍以上の10の多言語で実証されている。
単語の埋め込み手法と比較して,訓練パラメータの1/5以下で,複数言語による画像文検索と先行作業の3~4%の性能評価を行った。
論文 参考訳(メタデータ) (2020-04-09T01:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。