論文の概要: Lite Training Strategies for Portuguese-English and English-Portuguese
Translation
- arxiv url: http://arxiv.org/abs/2008.08769v1
- Date: Thu, 20 Aug 2020 04:31:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 03:33:53.860613
- Title: Lite Training Strategies for Portuguese-English and English-Portuguese
Translation
- Title(参考訳): ポルトガル語・英語・ポルトガル語翻訳のためのライトトレーニング戦略
- Authors: Alexandre Lopes, Rodrigo Nogueira, Roberto Lotufo, Helio Pedrini
- Abstract要約: ポルトガル語・英語・ポルトガル語の翻訳タスクにおいて,T5などの事前学習モデルの使用について検討する。
本稿では,ポルトガル語の文字,例えばダイアレーシス,急性アクセント,墓のアクセントを表すために,英語のトークン化器の適応を提案する。
以上の結果から,本モデルは最新モデルと競合する性能を示しながら,控えめなハードウェアでトレーニングを行った。
- 参考スコア(独自算出の注目度): 67.4894325619275
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Despite the widespread adoption of deep learning for machine translation, it
is still expensive to develop high-quality translation models. In this work, we
investigate the use of pre-trained models, such as T5 for Portuguese-English
and English-Portuguese translation tasks using low-cost hardware. We explore
the use of Portuguese and English pre-trained language models and propose an
adaptation of the English tokenizer to represent Portuguese characters, such as
diaeresis, acute and grave accents. We compare our models to the Google
Translate API and MarianMT on a subset of the ParaCrawl dataset, as well as to
the winning submission to the WMT19 Biomedical Translation Shared Task. We also
describe our submission to the WMT20 Biomedical Translation Shared Task. Our
results show that our models have a competitive performance to state-of-the-art
models while being trained on modest hardware (a single 8GB gaming GPU for nine
days). Our data, models and code are available at
https://github.com/unicamp-dl/Lite-T5-Translation.
- Abstract(参考訳): 機械学習が広く採用されているにもかかわらず、高品質の翻訳モデルを開発することは依然として高価である。
本研究では,ポルトガル語・英語・ポルトガル語の翻訳タスクにおけるT5などの事前学習モデルの使用について,低コストハードウェアを用いて検討する。
ポルトガル語と英語の事前学習された言語モデルの使用について検討し,ダイアレシス,急性アクセント,重度のアクセントといったポルトガル語の文字を表すために,英語のトークン化器を適応させる手法を提案する。
我々は、我々のモデルを、ParaCrawlデータセットのサブセットであるGoogle Translate APIとMarianMTと比較し、WMT19 Biomedical Translation Shared Taskに勝った結果と比較する。
また,WMT20バイオメディカル翻訳共有タスクの提出について述べる。
私たちのモデルは、控えめなハードウェア(9日間、単一の8GBのゲーミングGPU)でトレーニングしながら、最先端のモデルと競合する性能を示している。
私たちのデータ、モデル、コードはhttps://github.com/unicamp-dl/Lite-T5-Translationで公開されています。
関連論文リスト
- Improving Language Models Trained on Translated Data with Continual Pre-Training and Dictionary Learning Analysis [3.16714407449467]
学習言語モデルにおける翻訳と合成データの役割について検討する。
NLLB-3B MTモデルを用いて英語からアラビア語に翻訳した。
これらの問題を是正するために、我々は、合成された高品質のアラビア物語の小さなデータセットでモデルを事前訓練する。
論文 参考訳(メタデータ) (2024-05-23T07:53:04Z) - TIM: Teaching Large Language Models to Translate with Comparison [78.66926087162672]
本稿では,LLMに翻訳学習を教えるために,サンプルを用いた新しいフレームワークを提案する。
我々のアプローチは、正しい翻訳例と間違った翻訳例をモデルに提示し、好みの損失を使ってモデルの学習をガイドすることである。
本研究は,翻訳タスクのための微調整LDMの新しい視点を提供し,高品質な翻訳を実現するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2023-07-10T08:15:40Z) - Crosslingual Generalization through Multitask Finetuning [80.8822603322471]
マルチタスク誘導ファインタニング(MTF)は、大きな言語モデルがゼロショット設定で新しいタスクに一般化するのに役立つことが示されている。
MTFを事前訓練された多言語BLOOMおよびmT5モデルファミリーに適用し、BLOOMZおよびmT0と呼ばれる微調整された変種を生成する。
英語のプロンプトを用いた英語タスクにおける多言語多言語モデルの微調整により、非英語言語へのタスク一般化が可能となる。
論文 参考訳(メタデータ) (2022-11-03T13:19:32Z) - Exploring Text-to-Text Transformers for English to Hinglish Machine
Translation with Synthetic Code-Mixing [19.19256927651015]
モノリンガル英語のテキストをHinglish(コード混合ヒンディー語と英語)に変換するモデルを記述する。
事前訓練された言語モデルの最近の成功を踏まえ、トランスフォーマーベースのエンコーダデコーダモデルの実用性についても検証する。
私たちのモデルは、英語と英語の公式共有タスクの全体的なランキングで第一位です。
論文 参考訳(メタデータ) (2021-05-18T19:50:25Z) - Paraphrastic Representations at Scale [134.41025103489224]
私たちは、英語、アラビア語、ドイツ語、フランス語、スペイン語、ロシア語、トルコ語、中国語の訓練されたモデルをリリースします。
我々はこれらのモデルを大量のデータでトレーニングし、元の論文から大幅に性能を向上した。
論文 参考訳(メタデータ) (2021-04-30T16:55:28Z) - "Wikily" Neural Machine Translation Tailored to Cross-Lingual Tasks [20.837515947519524]
リンクされたウィキペディアページの最初の文とタイトル、およびクロスリンガル画像キャプションは、二言語辞書を抽出し、ウィキペディアからパラレルテキストをマイニングするためのクロスリンガル単語埋め込みを抽出するシードパラレルデータのための強力な信号である。
画像キャプションでは、アラビア語の訓練データが英語のキャプションデータのウィキリー翻訳であるアラビア語と英語のマルチタスク機械翻訳と画像キャプションパイプラインを訓練する。
アラビア語の字幕化の結果は、教師付きモデルよりも若干優れている。
論文 参考訳(メタデータ) (2021-04-16T21:49:12Z) - Unsupervised Transfer Learning in Multilingual Neural Machine
Translation with Cross-Lingual Word Embeddings [72.69253034282035]
我々は、言語独立多言語文表現を活用し、新しい言語に容易に一般化する。
複数のロマンス言語を含むベースシステムを用いてポルトガル語から盲目的に復号し、ポルトガル語では36.4 BLEU、ロシア語では12.8 BLEUのスコアを得た。
非反復的逆翻訳によるより実用的な適応アプローチを探求し、高品質の翻訳を生産するモデルの能力を活用します。
論文 参考訳(メタデータ) (2021-03-11T14:22:08Z) - Beyond English-Centric Multilingual Machine Translation [74.21727842163068]
我々は真の多言語多言語翻訳モデルを作成し、100言語のいずれかのペア間で直接翻訳できる。
大規模なマイニングによって生成された教師付きデータで、数千の言語方向をカバーするトレーニングデータセットを構築し、オープンソースにしています。
WMTのベストシングルシステムに競争力を持たせながら、非英語の方向を直接翻訳する場合、非英語モデルに焦点をあてると10 BLEU以上のゲインが得られる。
論文 参考訳(メタデータ) (2020-10-21T17:01:23Z) - PTT5: Pretraining and validating the T5 model on Brazilian Portuguese
data [4.579262239784748]
ポルトガルのWebページの大規模なコレクションであるBrWac corpus上で、T5モデルを事前訓練する。
ポルトガルの事前訓練モデルでは、オリジナルのT5モデルよりも大幅に性能が向上していることを示す。
論文 参考訳(メタデータ) (2020-08-20T18:10:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。