論文の概要: Using LSTM to Translate French to Senegalese Local Languages: Wolof as a
Case Study
- arxiv url: http://arxiv.org/abs/2004.13840v1
- Date: Fri, 27 Mar 2020 17:09:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 04:18:31.818193
- Title: Using LSTM to Translate French to Senegalese Local Languages: Wolof as a
Case Study
- Title(参考訳): LSTMを用いてフランス語をセネガル語に翻訳:Wolofを事例として
- Authors: Lo Alla and Dione Cheikh Bamba and Nguer Elhadji Mamadou and Ba Sileye
O. Ba and Lo Moussa
- Abstract要約: 我々は,低リソースのNiger-Congo言語であるWolofのニューラルマシン翻訳システムを提案する。
私たちは7万行のフランス語-ウーロフ文の平行コーパスを集めました。
われわれのモデルは、限られた量のフランス語とWolofのデータに基づいて訓練されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a neural machine translation system for Wolof, a
low-resource Niger-Congo language. First we gathered a parallel corpus of 70000
aligned French-Wolof sentences. Then we developped a baseline LSTM based
encoder-decoder architecture which was further extended to bidirectional LSTMs
with attention mechanisms. Our models are trained on a limited amount of
parallel French-Wolof data of approximately 35000 parallel sentences.
Experimental results on French-Wolof translation tasks show that our approach
produces promising translations in extremely low-resource conditions. The best
model was able to achieve a good performance of 47% BLEU score.
- Abstract(参考訳): 本稿では,ローリソースのniger-congo言語であるwolofのニューラルマシン翻訳システムを提案する。
最初は、70000行のフランス語-Wolof文の並列コーパスを集めました。
そこで,我々はLSTMをベースラインとしたエンコーダデコーダアーキテクチャを開発し,アテンション機構を備えた双方向LSTMにさらに拡張した。
我々のモデルは、約35,000のパラレル文からなる、限られた量のフランス語-Wolofデータに基づいて訓練されている。
french-wolof翻訳タスクの実験結果から,本手法は極めて低資源条件下で有望な翻訳を生成することが示された。
最良のモデルは47%のbleuスコアの良好なパフォーマンスを達成できた。
関連論文リスト
- Salute the Classic: Revisiting Challenges of Machine Translation in the
Age of Large Language Models [91.6543868677356]
ニューラルネットワーク翻訳の進化は、6つのコア課題の影響を受けている。
これらの課題には、ドメインミスマッチ、並列データの量、まれな単語予測、長文の翻訳、単語アライメントとしてのアテンションモデル、そして準最適ビームサーチが含まれる。
この研究はこれらの課題を再考し、先進的な大規模言語モデルにおけるそれらの継続的な関連性についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-16T13:30:09Z) - Speech Translation with Large Language Models: An Industrial Practice [64.5419534101104]
LLM-STは,事前学習型大言語モデル(LLM)に基づいて構築された,新規で効果的な音声翻訳モデルである。
大規模言語モデル(LLM)を音声エンコーダと統合し、マルチタスクの命令チューニングを利用することで、LLM-STは正確なタイムスタンプと翻訳を生成することができる。
英語と中国語のデータセットの厳密な実験を通じて,LLM-STの異常な性能を示す。
論文 参考訳(メタデータ) (2023-12-21T05:32:49Z) - Machine Translation for Ge'ez Language [0.0]
Ge'ezのような低リソース言語の機械翻訳は、語彙外単語、ドメインミスマッチ、ラベル付きトレーニングデータの欠如といった課題に直面している。
言語関連性に基づく多言語ニューラルマシン翻訳(MNMT)モデルを開発した。
また,最新のLCMであるGPT-3.5を用いて,ファジィマッチングを用いた数ショット翻訳実験を行った。
論文 参考訳(メタデータ) (2023-11-24T14:55:23Z) - A Paradigm Shift in Machine Translation: Boosting Translation
Performance of Large Language Models [27.777372498182864]
生成型大規模言語モデル(LLM)のための新しい微調整手法を提案する。
提案手法は,モノリンガルデータに対する初期微調整と,それに続く少数の高品質並列データに対する微調整の2段階からなる。
LLaMA-2を基礎モデルとして,このモデルではゼロショット性能よりも12BLEUおよび12COMETの平均的な改善が達成できることを示した。
論文 参考訳(メタデータ) (2023-09-20T22:53:15Z) - Strategies for improving low resource speech to text translation relying
on pre-trained ASR models [59.90106959717875]
本稿では,テキスト翻訳(ST)における低音源音声の性能向上のための技術と知見について述べる。
本研究は,英語とポルトガル語,タマシェク語とフランス語の2つの言語対について,シミュレーションおよび実低資源設定について実験を行った。
論文 参考訳(メタデータ) (2023-05-31T21:58:07Z) - Chain-of-Dictionary Prompting Elicits Translation in Large Language
Models [91.55398541853785]
大規模言語モデル(LLM)は多言語ニューラルマシン翻訳(MNMT)において驚くほど優れた性能を示した
入力単語のサブセットに対する多言語辞書の連鎖による事前知識でLLMを拡張して翻訳能力を引き出す新しい方法であるCoDを提案する。
論文 参考訳(メタデータ) (2023-05-11T05:19:47Z) - Low-Resourced Machine Translation for Senegalese Wolof Language [0.34376560669160383]
リカレントニューラルネットワーク(RNN)に基づく機械翻訳モデルの実験を行った123,000文からなるWolof/Frenchコーパスを並列に提示する。
サブワードデータで訓練されたモデルと、フランス語と英語のペアで訓練されたモデルと、同じ実験条件下で訓練されたフレンチとウーロフのペアで訓練されたモデルとを比較した。
論文 参考訳(メタデータ) (2023-05-01T00:04:19Z) - Improving Target-side Lexical Transfer in Multilingual Neural Machine
Translation [104.10726545151043]
マルチリンガルデータは、LRLからターゲット言語に翻訳するNMTモデルにとって、LRLに翻訳するモデルよりも有益であることが判明した。
実験の結果,DecSDEは最大1.8BLEUの英語から4つの言語への翻訳において一貫した向上をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-10-04T19:42:40Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z) - Low Resource Neural Machine Translation: A Benchmark for Five African
Languages [14.97774471012222]
英語と5つのアフリカのLRLペア(Swahili, Amharic, Tigrigna, Oromo, Somali)のNMTをベンチマークする。
ベースライン単一言語対 NMT モデルと半教師付き学習,移動学習,多言語モデリングを比較した。
平均的なBLEUスコアでは、多言語的アプローチは10の翻訳方向のうち6つで最大5点までの最大利得を示す。
論文 参考訳(メタデータ) (2020-03-31T17:50:07Z) - Amharic-Arabic Neural Machine Translation [0.0]
2つのLong Short-Term Memory (LSTM) と Gated Recurrent Units (GRU) ベースのNeural Machine Translation (NMT) モデルを開発した。
クラーン文字コーパスは、既存の単言語アラビア語のテキストと、タンジレ語で利用可能なアムハラ語のテキストコーパスの同値な翻訳を変更することで構成されている。
LSTMとGRUベースのNMTモデルとGoogle翻訳システムを比較し,LSTMベースのOpenNMTはGRUベースのOpenNMTとGoogle翻訳システムより優れていることを示した。
論文 参考訳(メタデータ) (2019-12-26T15:41:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。