論文の概要: Exploring Representational Disparities Between Multilingual and
Bilingual Translation Models
- arxiv url: http://arxiv.org/abs/2305.14230v1
- Date: Tue, 23 May 2023 16:46:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 14:32:25.652794
- Title: Exploring Representational Disparities Between Multilingual and
Bilingual Translation Models
- Title(参考訳): 多言語翻訳モデルとバイリンガル翻訳モデル間の表現格差の探索
- Authors: Neha Verma, Kenton Murray, Kevin Duh
- Abstract要約: 多言語モデルの言語ペアは、バイリンガルモデルよりもパフォーマンスが悪くなることがある。
多言語デコーダ表現における異方性の多くは、言語固有の情報モデリングによるものであることを示す。
- 参考スコア(独自算出の注目度): 11.853019230506355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multilingual machine translation has proven immensely useful for low-resource
and zero-shot language pairs. However, language pairs in multilingual models
sometimes see worse performance than in bilingual models, especially when
translating in a one-to-many setting. To understand why, we examine the
geometric differences in the representations from bilingual models versus those
from one-to-many multilingual models. Specifically, we evaluate the isotropy of
the representations, to measure how well they utilize the dimensions in their
underlying vector space. Using the same evaluation data in both models, we find
that multilingual model decoder representations tend to be less isotropic than
bilingual model decoder representations. Additionally, we show that much of the
anisotropy in multilingual decoder representations can be attributed to
modeling language-specific information, therefore limiting remaining
representational capacity.
- Abstract(参考訳): 多言語機械翻訳は低リソースとゼロショットの言語ペアで非常に有用であることが証明されている。
しかし、多言語モデルにおける言語ペアは、特に一対一で翻訳する場合、多言語モデルよりもパフォーマンスが悪くなることがある。
そこで本研究では,両言語モデルと多言語モデルとの表現の幾何学的差異について検討する。
具体的には、表現の等方性を評価し、その基礎となるベクトル空間の次元をいかにうまく利用するかを測定する。
両モデルで同じ評価データを用いて、多言語モデルデコーダ表現はバイリンガルモデルデコーダ表現よりも異方性が低い傾向にあることを示した。
さらに,多言語デコーダ表現における異方性の多くは,言語固有の情報モデリングに起因し,表現能力に制限があることを示す。
関連論文リスト
- The Less the Merrier? Investigating Language Representation in
Multilingual Models [8.632506864465501]
多言語モデルにおける言語表現について検討する。
我々は、コミュニティ中心のモデルが、低リソース言語で同じ家系の言語を区別する上で、より良い性能を発揮することを実験から観察した。
論文 参考訳(メタデータ) (2023-10-20T02:26:34Z) - Exploring Anisotropy and Outliers in Multilingual Language Models for
Cross-Lingual Semantic Sentence Similarity [64.18762301574954]
これまでの研究によると、文脈言語モデルによって出力される表現は静的な型埋め込みよりも異方性が高い。
これは単言語モデルと多言語モデルの両方に当てはまるように思われるが、多言語コンテキストでの作業はあまり行われていない。
複数の事前訓練された多言語言語モデルにおける外乱次元とその異方性との関係について検討する。
論文 参考訳(メタデータ) (2023-06-01T09:01:48Z) - Breaking Down Multilingual Machine Translation [74.24795388967907]
マルチ言語学習は一般にエンコーダにとって有益であるが,ローソース言語(LRL)ではデコーダにのみ有益であることを示す。
LRLの多言語モデルと一対多モデルは、Aharoniらによって報告された最良の結果よりも優れています。
論文 参考訳(メタデータ) (2021-10-15T14:57:12Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - Are Multilingual Models Effective in Code-Switching? [57.78477547424949]
多言語モデルの有効性を検討し,複合言語設定の能力と適応性について検討する。
この結果から,事前学習した多言語モデルでは,コードスイッチングにおける高品質な表現が必ずしも保証されないことが示唆された。
論文 参考訳(メタデータ) (2021-03-24T16:20:02Z) - How Good is Your Tokenizer? On the Monolingual Performance of
Multilingual Language Models [96.32118305166412]
本研究では,5つの単一言語下流タスクのセットに基づいて,事前学習可能な単言語モデルを持つ9種類の言語について検討した。
多言語モデルの語彙で適切に表現された言語は、単言語モデルよりも性能が著しく低下する。
論文 参考訳(メタデータ) (2020-12-31T14:11:00Z) - Cross-neutralising: Probing for joint encoding of linguistic information
in multilingual models [17.404220737977738]
言語間の関係を2つの最先端多言語モデルにエンコードする方法について検討する。
その結果,言語特性は類型的に類似した言語間で共同でコード化されていることが示唆された。
論文 参考訳(メタデータ) (2020-10-24T07:55:32Z) - Learning to Scale Multilingual Representations for Vision-Language Tasks [51.27839182889422]
SMALRの有効性は、これまでビジョン言語タスクでサポートされた2倍以上の10の多言語で実証されている。
単語の埋め込み手法と比較して,訓練パラメータの1/5以下で,複数言語による画像文検索と先行作業の3~4%の性能評価を行った。
論文 参考訳(メタデータ) (2020-04-09T01:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。