論文の概要: Improving Similar Language Translation With Transfer Learning
- arxiv url: http://arxiv.org/abs/2108.03533v1
- Date: Sat, 7 Aug 2021 22:25:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 15:50:23.578256
- Title: Improving Similar Language Translation With Transfer Learning
- Title(参考訳): 伝達学習による類似言語翻訳の改善
- Authors: Ife Adebara and Muhammad Abdul-Mageed
- Abstract要約: この作業は、WMT 2021類似言語翻訳共有タスクへのコントリビューションの一部です。
我々は、フレンチ・バンバラ、スペイン・カタラン、スペイン・ポルトガルの両方向を含む異なる言語ペアのモデルを提出した。
カタルーニャ・スパニッシュ(82.79ドル BLEU)とポルトガル・スパニッシュ(87.11ドル BLEU)のモデルは、公式の共有タスク評価で上位1位である。
- 参考スコア(独自算出の注目度): 7.798648787220143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate transfer learning based on pre-trained neural machine
translation models to translate between (low-resource) similar languages. This
work is part of our contribution to the WMT 2021 Similar Languages Translation
Shared Task where we submitted models for different language pairs, including
French-Bambara, Spanish-Catalan, and Spanish-Portuguese in both directions. Our
models for Catalan-Spanish ($82.79$ BLEU) and Portuguese-Spanish ($87.11$ BLEU)
rank top 1 in the official shared task evaluation, and we are the only team to
submit models for the French-Bambara pairs.
- Abstract(参考訳): 本稿では,(低リソース)類似言語間を翻訳するために,事前学習したニューラルマシン翻訳モデルに基づくトランスファー学習について検討する。
この作業は、wmt 2021の類似言語翻訳共有タスクへの私たちの貢献の一部で、フランス語-バンバラ語、スペイン語-カタルーニャ語、スペイン語-ポルトガル語の両方の異なる言語ペアのモデルを提出しました。
カタルーニャ-スペイン (82.79$ bleu) とポルトガル-スペイン (87.11$ bleu) のモデルは、公式な共有タスク評価でトップ1にランクインし、フランス-バンバラペアのモデルを提出した唯一のチームです。
関連論文リスト
- Multilingual Transfer and Domain Adaptation for Low-Resource Languages of Spain [9.28989997114014]
スペイン語からアラゴネーズ(es-arg)、スペイン語からアラン語(es-arn)、スペイン語からアストゥリアン語(es-ast)の3つの翻訳作業に参加した。
これら3つの翻訳タスクでは、多言語翻訳、正規化ドロップアウト、前方翻訳、前方翻訳、音声認識、アンサンブル学習など、深層トランスフォーマー・ビッグアーキテクチャのトレーニングに基づくニューラルマシン翻訳(NMT)モデルに対するトレーニング戦略を用いる。
論文 参考訳(メタデータ) (2024-09-24T09:46:27Z) - Decoupled Vocabulary Learning Enables Zero-Shot Translation from Unseen Languages [55.157295899188476]
ニューラルマシン翻訳システムは、異なる言語の文を共通の表現空間にマッピングすることを学ぶ。
本研究では、この仮説を未知の言語からのゼロショット翻訳により検証する。
この設定により、全く見えない言語からのゼロショット翻訳が可能になることを実証する。
論文 参考訳(メタデータ) (2024-08-05T07:58:58Z) - Breaking the Script Barrier in Multilingual Pre-Trained Language Models with Transliteration-Based Post-Training Alignment [50.27950279695363]
転送性能は、低リソースのターゲット言語が高リソースのソース言語とは異なるスクリプトで書かれている場合、しばしば妨げられる。
本論文は,この問題に対処するために翻訳を用いた最近の研究に触発されて,翻訳に基づくポストプレトレーニングアライメント(PPA)手法を提案する。
論文 参考訳(メタデータ) (2024-06-28T08:59:24Z) - Enhancing Translation for Indigenous Languages: Experiments with
Multilingual Models [57.10972566048735]
本稿では,3つの方法のシステム記述について述べる。
M2M-100とmBART50という2つの多言語モデルと1つのバイリンガル(1対1)-ヘルシンキNLPスペイン語翻訳モデルを使いました。
アメリカから11の言語を実験し、使用したセットアップと、達成した成果を報告しました。
論文 参考訳(メタデータ) (2023-05-27T08:10:40Z) - Decomposed Prompting for Machine Translation Between Related Languages
using Large Language Models [55.35106713257871]
DecoMTは、単語チャンク翻訳のシーケンスに翻訳プロセスを分解する、数発のプロンプトの新しいアプローチである。
DecoMTはBLOOMモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-22T14:52:47Z) - Ensembling of Distilled Models from Multi-task Teachers for Constrained
Resource Language Pairs [0.0]
我々は、ベンガル語からヒンディー語、英語からハウサ語、Xhosaからズールー語までの3つの比較的低いリソース言語対に焦点を当てている。
並列データと単言語データの両方を用いたマルチタスク目的を用いた多言語モデルを訓練する。
BLEUの英語とハウサ語との相対的な増加率は約70%、ベンガル語とヒンディー語、チョーサ語とズールー語の両方の相対的な改善率は約25%である。
論文 参考訳(メタデータ) (2021-11-26T00:54:37Z) - CUNI systems for WMT21: Multilingual Low-Resource Translation for
Indo-European Languages Shared Task [0.0]
複数の類似言語ペアに対してジョイントモデルを使用することで,各ペアの翻訳品質が向上することを示す。
また,チャララクタレベルのバイリンガルモデルと非常に類似した言語対が競合することを示す。
論文 参考訳(メタデータ) (2021-09-20T08:10:39Z) - Cross-Lingual Training with Dense Retrieval for Document Retrieval [56.319511218754414]
我々は、英語のアノテーションから複数の非英語言語への文書ランク付けのための異なる転送手法について検討する。
6つの言語(中国語、アラビア語、フランス語、ヒンディー語、ベンガル語、スペイン語)におけるテストコレクションの実験。
弱教師付きターゲット言語転送は、世代ベースターゲット言語転送に対する競合性能をもたらすことが判明した。
論文 参考訳(メタデータ) (2021-09-03T17:15:38Z) - Unsupervised Transfer Learning in Multilingual Neural Machine
Translation with Cross-Lingual Word Embeddings [72.69253034282035]
我々は、言語独立多言語文表現を活用し、新しい言語に容易に一般化する。
複数のロマンス言語を含むベースシステムを用いてポルトガル語から盲目的に復号し、ポルトガル語では36.4 BLEU、ロシア語では12.8 BLEUのスコアを得た。
非反復的逆翻訳によるより実用的な適応アプローチを探求し、高品質の翻訳を生産するモデルの能力を活用します。
論文 参考訳(メタデータ) (2021-03-11T14:22:08Z) - Translating Similar Languages: Role of Mutual Intelligibility in
Multilingual Transformers [8.9379057739817]
低資源条件下での類似言語間の翻訳手法について検討する。
トランスフォーマーをベースとしたバイリンガル・マルチリンガル系を全ての言語対に対して提案する。
私たちのスペイン・カタランモデルは、5つの言語ペアの中で最高のパフォーマンスを持っています。
論文 参考訳(メタデータ) (2020-11-10T10:58:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。