論文の概要: Beyond English: Toward Inclusive and Scalable Multilingual Machine Translation with LLMs
- arxiv url: http://arxiv.org/abs/2511.07003v1
- Date: Mon, 10 Nov 2025 11:54:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.22304
- Title: Beyond English: Toward Inclusive and Scalable Multilingual Machine Translation with LLMs
- Title(参考訳): 英語を超えて: LLMによる包括的でスケーラブルな多言語機械翻訳を目指して
- Authors: Yingfeng Luo, Ziqiang Xu, Yuxuan Ouyang, Murun Yang, Dingyang Lin, Kaiyan Chang, Tong Zheng, Bei Li, Peinan Feng, Quan Du, Tong Xiao, Jingbo Zhu,
- Abstract要約: 大規模な言語モデルでは、MMT(Multilingual Machine Translation)が大幅に進歩しているが、幅広い言語カバレッジ、一貫した翻訳品質、英語中心のバイアスは未解決の課題である。
textbfLMTは、中国語と英語を中心としたtextbfLarge-scale textbfMultilingual textbfTranslationモデルである。
LMTは4BモデルがAya-13BとNLLB-54Bモデルを大きく上回り、4Bモデルと同等の言語カバレッジを持つモデル間でSOTA性能を実現している。
- 参考スコア(独自算出の注目度): 41.53385639669034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models have significantly advanced Multilingual Machine Translation (MMT), yet the broad language coverage, consistent translation quality, and English-centric bias remain open challenges. To address these challenges, we introduce \textbf{LMT}, a suite of \textbf{L}arge-scale \textbf{M}ultilingual \textbf{T}ranslation models centered on both Chinese and English, covering 60 languages and 234 translation directions. During development, we identify a previously overlooked phenomenon of \textbf{directional degeneration}, where symmetric multi-way fine-tuning data overemphasize reverse directions (X $\to$ En/Zh), leading to excessive many-to-one mappings and degraded translation quality. We propose \textbf{Strategic Downsampling}, a simple yet effective method to mitigate this degeneration. In addition, we design \textbf{Parallel Multilingual Prompting (PMP)}, which leverages typologically related auxiliary languages to enhance cross-lingual transfer. Through rigorous data curation and refined adaptation strategies, LMT achieves SOTA performance among models of comparable language coverage, with our 4B model (LMT-60-4B) surpassing the much larger Aya-101-13B and NLLB-54B models by a substantial margin. We release LMT in four sizes (0.6B/1.7B/4B/8B) to catalyze future research and provide strong baselines for inclusive, scalable, and high-quality MMT \footnote{\href{https://github.com/NiuTrans/LMT}{https://github.com/NiuTrans/LMT}}.
- Abstract(参考訳): 大規模な言語モデルでは、MMT(Multilingual Machine Translation)が大幅に進歩しているが、幅広い言語カバレッジ、一貫した翻訳品質、英語中心のバイアスは未解決の課題である。
これらの課題に対処するために、中国語と英語を中心とした、60言語と234の翻訳方向を網羅した「textbf{L}arge-scale \textbf{M}ultilingual \textbf{T}ranslation」モデルである「textbf{LMT}」を紹介した。
開発期間中に,対称多方向微調整データが逆方向(X$\to$ En/Zh)を過度に強調し,多対一のマッピングや翻訳品質が劣化するという,これまで見過ごされていた「textbf{directional degeneration」現象を同定した。
本稿では, この劣化を緩和するための簡易かつ効果的な方法である, テキストbf{Strategic Downsampling}を提案する。
さらに,類型的に関連する補助言語を活用して言語間移動を促進できる「textbf{Parallel Multilingual Prompting (PMP)」を設計する。
4Bモデル(LMT-60-4B)は,厳密なデータキュレーションと改良された適応戦略により,Aya-101-13BモデルとNLLB-54Bモデルを大きく上回る精度でSOTA性能を実現している。
LMTを4つのサイズ(0.6B/1.7B/4B/8B)でリリースし、将来の研究を触媒し、包括的でスケーラブルで高品質なMMT \footnote{\href{https://github.com/NiuTrans/LMT}{https://github.com/NiuTrans/LMT}} のための強力なベースラインを提供する。
関連論文リスト
- Seed-X: Building Strong Multilingual Translation LLM with 7B Parameters [53.59868121093848]
7Bパラメータサイズを持つオープンソースの言語モデル(LLM)のファミリーであるSeed-Xを紹介する。
ベースモデルは、28言語にわたるモノリンガルコンテンツとバイリンガルコンテンツの両方を含む、多種多様な高品質データセットで事前訓練されている。
その後、インストラクションモデルは、Chain-of-Thought(CoT)推論によって翻訳され、強化学習(RL)によりさらに強化され、多様な言語対をまたいだより良い一般化が達成される。
論文 参考訳(メタデータ) (2025-07-18T03:19:43Z) - Trans-Zero: Self-Play Incentivizes Large Language Models for Multilingual Translation Without Parallel Data [64.4458540273004]
言語モデル(LLM)の単言語データと本質的な多言語知識のみを活用するセルフプレイフレームワークを提案する。
実験により、このアプローチは大規模並列データに基づいて訓練されたモデルの性能と一致するだけでなく、非英語翻訳の方向でも優れていることが示された。
論文 参考訳(メタデータ) (2025-04-20T16:20:30Z) - Machine Translation for Ge'ez Language [0.0]
Ge'ezのような低リソース言語の機械翻訳は、語彙外単語、ドメインミスマッチ、ラベル付きトレーニングデータの欠如といった課題に直面している。
言語関連性に基づく多言語ニューラルマシン翻訳(MNMT)モデルを開発した。
また,最新のLCMであるGPT-3.5を用いて,ファジィマッチングを用いた数ショット翻訳実験を行った。
論文 参考訳(メタデータ) (2023-11-24T14:55:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。