論文の概要: GreenPLM: Cross-lingual pre-trained language models conversion with
(almost) no cost
- arxiv url: http://arxiv.org/abs/2211.06993v1
- Date: Sun, 13 Nov 2022 18:59:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 17:30:29.060309
- Title: GreenPLM: Cross-lingual pre-trained language models conversion with
(almost) no cost
- Title(参考訳): GreenPLM:(ほとんど)コストなしで変換できる言語間事前訓練言語モデル
- Authors: Qingcheng Zeng, Lucas Garay, Peilin Zhou, Dading Chong, Yining Hua,
Jiageng Wu, Yikang Pan, Han Zhou, Jie Yang
- Abstract要約: 本研究では, 有効でエネルギー効率の高いGreenPLMを提案する。
バイリンガル語彙を用いて、ある言語の言語モデルを(ほとんど)追加費用なしで他の言語に直接翻訳する。
このアプローチを18の言語で検証し、このフレームワークが高コストでトレーニングされた他のフレームワークに匹敵するものであることを示す。
- 参考スコア(独自算出の注目度): 7.053890043877121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While large pre-trained models have transformed the field of natural language
processing (NLP), the high training cost and low cross-lingual availability of
such models prevent the new advances from being equally shared by users across
all languages, especially the less spoken ones. To promote equal opportunities
for all language speakers in NLP research and to reduce energy consumption for
sustainability, this study proposes an effective and energy-efficient framework
GreenPLM that uses bilingual lexicons to directly translate language models of
one language into other languages at (almost) no additional cost. We validate
this approach in 18 languages and show that this framework is comparable to, if
not better than, other heuristics trained with high cost. In addition, when
given a low computational cost (2.5%), the framework outperforms the original
monolingual language models in six out of seven tested languages. This approach
can be easily implemented, and we will release language models in 50 languages
translated from English soon.
- Abstract(参考訳): 大規模事前学習モデルは自然言語処理(NLP)の分野に変化をもたらしたが、訓練コストの高騰と言語間の相互利用の低さにより、新しい進歩が全ての言語、特に話の少ない言語で等しく共有されるのを防ぐ。
NLP研究における全ての言語話者の平等な機会の促進と持続可能性のためのエネルギー消費の削減を目的として,両言語レキシコンを用いて,一言語の言語モデルを(ほとんど)追加費用なしで(ほぼ)他言語へ直接翻訳する効果的でエネルギー効率の良いフレームワークであるGreenPLMを提案する。
このアプローチを18の言語で検証し、このフレームワークが高いコストでトレーニングされた他のヒューリスティックと同等であることを示す。
さらに、計算コスト(2.5%)が低い場合、フレームワークは7つのテスト言語のうち6つでオリジナルの単言語モデルを上回る。
このアプローチは簡単に実装でき、すぐに英語から翻訳された50言語で言語モデルをリリースします。
関連論文リスト
- Open Generative Large Language Models for Galician [1.3049334790726996]
大規模言語モデル(LLM)は自然言語処理に変化をもたらした。
しかし、彼らの主に英語中心のトレーニングは、言語間でのバイアスとパフォーマンスの相違につながっている。
この不均衡は、ガリシア語のような低い資源を持つ言語にとって、NLP技術への公平なアクセスを困難にしている。
このギャップを埋めるために、ガリシアに焦点をあてた最初の2つの生成LDMを提示する。
論文 参考訳(メタデータ) (2024-06-19T23:49:56Z) - MoSECroT: Model Stitching with Static Word Embeddings for Crosslingual Zero-shot Transfer [50.40191599304911]
クロスリンガルゼロショット転送のための静的単語埋め込みを用いたMoSECroTモデルスティッチについて紹介する。
本稿では,ソースコードPLMの埋め込みと対象言語の静的単語埋め込みのための共通空間を構築するために,相対表現を利用した最初のフレームワークを提案する。
提案するフレームワークは,MoSECroTに対処する際,弱いベースラインと競合するが,強いベースラインに比べて競合する結果が得られないことを示す。
論文 参考訳(メタデータ) (2024-01-09T21:09:07Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Cross-Lingual Transfer Learning for Phrase Break Prediction with
Multilingual Language Model [13.730152819942445]
言語間変換学習は低リソース言語の性能向上に特に有効である。
このことは、リソース不足言語におけるTSフロントエンドの開発には、言語間転送が安価で効果的であることを示している。
論文 参考訳(メタデータ) (2023-06-05T04:10:04Z) - Efficient Language Model Training through Cross-Lingual and Progressive
Transfer Learning [0.7612676127275795]
ほとんどのトランスフォーマー言語モデルは英語のテキストで事前訓練されている。
モデルのサイズが大きくなるにつれて、英語と他の言語のパフォーマンスギャップはさらに大きくなる。
我々はCLP-Transferと呼ばれる言語横断的・進行的トランスファー学習手法を導入する。
論文 参考訳(メタデータ) (2023-01-23T18:56:12Z) - Generalizing Multimodal Pre-training into Multilingual via Language
Acquisition [54.69707237195554]
英語のVision-Language Pre-Trainingは、様々な下流タスクで大きな成功を収めた。
この成功を英語以外の言語に一般化するために、Multilingual Vision-Language Pre-Trainingを通じていくつかの取り組みがなされている。
単言語視覚言語事前学習モデルを多言語に容易に一般化できるtextbfMultitextbfLingual textbfAcquisition (MLA) フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-29T08:53:22Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z) - Cross-lingual Machine Reading Comprehension with Language Branch
Knowledge Distillation [105.41167108465085]
言語間機械読解(CLMRC)は、ローソース言語に大規模なデータセットがないため、依然として難しい問題である。
本稿では,Language Branch Machine Reading (LBMRC) という新しい拡張手法を提案する。
LBMRCは、個々の言語に精通したMultiple Machine Read comprehension (MRC)モデルを訓練する。
複数の言語分岐モデルから全ての対象言語に対する単一モデルへのアマルガメート知識の多言語蒸留アプローチを考案する。
論文 参考訳(メタデータ) (2020-10-27T13:12:17Z) - Parsing with Multilingual BERT, a Small Corpus, and a Small Treebank [46.626315158735615]
事前訓練された多言語文脈表現は大きな成功を収めてきたが、事前訓練されたデータの制限のため、すべての言語品種に等しく適用されない。
このことは、ラベル付き未ラベルデータがモノリンガルモデルを効果的に訓練するにはあまりに限られている、これらのモデルに馴染みのない言語多様体にとっての課題である。
本稿では,低リソース環境に多言語モデルを適用するために,言語固有の事前学習と語彙拡張の利用を提案する。
論文 参考訳(メタデータ) (2020-09-29T16:12:52Z) - From English To Foreign Languages: Transferring Pre-trained Language
Models [0.12691047660244334]
事前訓練されたモデルは、多くの下流自然言語処理(NLP)タスクにおいてその効果を実証している。
多言語事前訓練モデルの可用性により、高リソース言語から低リソース言語へのNLPタスクのゼロショット転送が可能となる。
我々は,既存の事前学習されたモデルを,限定的な計算予算の下で英語から他言語に移行する問題に対処する。
論文 参考訳(メタデータ) (2020-02-18T00:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。