論文の概要: Learning to Scale Multilingual Representations for Vision-Language Tasks
- arxiv url: http://arxiv.org/abs/2004.04312v2
- Date: Thu, 27 Aug 2020 19:01:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 02:00:51.225357
- Title: Learning to Scale Multilingual Representations for Vision-Language Tasks
- Title(参考訳): 視覚言語課題のための多言語表現のスケール学習
- Authors: Andrea Burns, Donghyun Kim, Derry Wijaya, Kate Saenko, Bryan A.
Plummer
- Abstract要約: SMALRの有効性は、これまでビジョン言語タスクでサポートされた2倍以上の10の多言語で実証されている。
単語の埋め込み手法と比較して,訓練パラメータの1/5以下で,複数言語による画像文検索と先行作業の3~4%の性能評価を行った。
- 参考スコア(独自算出の注目度): 51.27839182889422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current multilingual vision-language models either require a large number of
additional parameters for each supported language, or suffer performance
degradation as languages are added. In this paper, we propose a Scalable
Multilingual Aligned Language Representation (SMALR) that supports many
languages with few model parameters without sacrificing downstream task
performance. SMALR learns a fixed size language-agnostic representation for
most words in a multilingual vocabulary, keeping language-specific features for
just a few. We use a masked cross-language modeling loss to align features with
context from other languages. Additionally, we propose a cross-lingual
consistency module that ensures predictions made for a query and its machine
translation are comparable. The effectiveness of SMALR is demonstrated with ten
diverse languages, over twice the number supported in vision-language tasks to
date. We evaluate on multilingual image-sentence retrieval and outperform prior
work by 3-4% with less than 1/5th the training parameters compared to other
word embedding methods.
- Abstract(参考訳): 現在の多言語視覚言語モデルは、サポート対象言語ごとに多数の追加パラメータを必要とするか、言語が追加されるにつれて性能劣化に悩まされる。
本稿では,下流タスク性能を犠牲にすることなく,モデルパラメータの少ない多言語をサポートするスケーラブル多言語言語表現(SMALR)を提案する。
SMALRは、多言語語彙でほとんどの単語に対して固定サイズの言語に依存しない表現を学習し、言語固有の機能をわずかに維持する。
マスク付きクロス言語モデリング損失を使用して、機能を他の言語のコンテキストと整合させる。
さらに,クエリの予測と機械翻訳が同等であることを保証する言語間整合モジュールを提案する。
SMALRの有効性は、これまでビジョン言語タスクでサポートされた2倍以上の10の多言語で実証されている。
単語の埋め込み手法と比較して,訓練パラメータの1/5以下で,複数言語による画像文検索と先行作業の3~4%の性能評価を行った。
関連論文リスト
- The Less the Merrier? Investigating Language Representation in
Multilingual Models [8.632506864465501]
多言語モデルにおける言語表現について検討する。
我々は、コミュニティ中心のモデルが、低リソース言語で同じ家系の言語を区別する上で、より良い性能を発揮することを実験から観察した。
論文 参考訳(メタデータ) (2023-10-20T02:26:34Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Are Multilingual Models Effective in Code-Switching? [57.78477547424949]
多言語モデルの有効性を検討し,複合言語設定の能力と適応性について検討する。
この結果から,事前学習した多言語モデルでは,コードスイッチングにおける高品質な表現が必ずしも保証されないことが示唆された。
論文 参考訳(メタデータ) (2021-03-24T16:20:02Z) - How Good is Your Tokenizer? On the Monolingual Performance of
Multilingual Language Models [96.32118305166412]
本研究では,5つの単一言語下流タスクのセットに基づいて,事前学習可能な単言語モデルを持つ9種類の言語について検討した。
多言語モデルの語彙で適切に表現された言語は、単言語モデルよりも性能が著しく低下する。
論文 参考訳(メタデータ) (2020-12-31T14:11:00Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z) - CoSDA-ML: Multi-Lingual Code-Switching Data Augmentation for Zero-Shot
Cross-Lingual NLP [68.2650714613869]
我々は,mBERTを微調整するための多言語コードスイッチングデータを生成するためのデータ拡張フレームワークを提案する。
既存の研究と比較すると,本手法は訓練にバイリンガル文を頼らず,複数の対象言語に対して1つの学習プロセスしか必要としない。
論文 参考訳(メタデータ) (2020-06-11T13:15:59Z) - GLUECoS : An Evaluation Benchmark for Code-Switched NLP [17.066725832825423]
コード切替言語に対する評価ベンチマーク GLUECoS を提案する。
英語・ヒンディー語・英語・スペイン語におけるNLP課題について報告する。
我々は、人工的に生成されたコード切替データに基づいて、多言語モデルを微調整する。
論文 参考訳(メタデータ) (2020-04-26T13:28:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。