論文の概要: Scaling Model and Data for Multilingual Machine Translation with Open Large Language Models
- arxiv url: http://arxiv.org/abs/2602.11961v1
- Date: Thu, 12 Feb 2026 13:56:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.854437
- Title: Scaling Model and Data for Multilingual Machine Translation with Open Large Language Models
- Title(参考訳): オープン大言語モデルを用いた多言語機械翻訳のためのスケーリングモデルとデータ
- Authors: Yuzhe Shang, Pengzhi Gao, Wei Liu, Jian Luan, Jinsong Su,
- Abstract要約: 本稿では,多言語多言語機械翻訳(MT)のためのオープン大言語モデル(LLM)について述べる。
46言語で最上位の多言語翻訳性能を実現するMiLMMT-46を開発した。
- 参考スコア(独自算出の注目度): 38.626788948945844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open large language models (LLMs) have demonstrated improving multilingual capabilities in recent years. In this paper, we present a study of open LLMs for multilingual machine translation (MT) across a range of languages, and investigate the effects of model scaling and data scaling when adapting open LLMs to multilingual MT through continual pretraining and instruction finetuning. Based on the Gemma3 model family, we develop MiLMMT-46, which achieves top-tier multilingual translation performance across 46 languages. Extensive experiments show that MiLMMT-46 consistently outperforms recent state-of-the-art (SOTA) models, including Seed-X, HY-MT-1.5, and TranslateGemma, and achieves competitive performance with strong proprietary systems such as Google Translate and Gemini 3 Pro.
- Abstract(参考訳): オープンな大規模言語モデル(LLM)は近年,多言語能力の向上を実証している。
本稿では,複数言語にわたる多言語機械翻訳(MT)のためのオープン LLM について検討し,連続的な事前学習と命令微調整により,オープン LLM をマルチ言語機械翻訳に適用する際のモデルスケーリングとデータスケーリングの効果について検討する。
Gemma3モデルファミリに基づいて,46言語で最上位の多言語翻訳性能を実現するMiLMMT-46を開発した。
MiLMMT-46は、Seed-X、HY-MT-1.5、TranslateGemmaといった最近の最先端(SOTA)モデルより一貫して優れており、Google TranslateやGemini 3 Proのような強力なプロプライエタリシステムと競合する性能を発揮する。
関連論文リスト
- Seed-X: Building Strong Multilingual Translation LLM with 7B Parameters [53.59868121093848]
7Bパラメータサイズを持つオープンソースの言語モデル(LLM)のファミリーであるSeed-Xを紹介する。
ベースモデルは、28言語にわたるモノリンガルコンテンツとバイリンガルコンテンツの両方を含む、多種多様な高品質データセットで事前訓練されている。
その後、インストラクションモデルは、Chain-of-Thought(CoT)推論によって翻訳され、強化学習(RL)によりさらに強化され、多様な言語対をまたいだより良い一般化が達成される。
論文 参考訳(メタデータ) (2025-07-18T03:19:43Z) - M-Prometheus: A Suite of Open Multilingual LLM Judges [65.63858815169924]
M-Prometheusは,多言語出力の直接評価とペア比較フィードバックを両立できるオープンウェイトLLM判定器のスイートである。
M-Prometheusモデルは、20以上の言語にまたがる多言語報酬ベンチマークや、4つの言語対をカバーする文語機械翻訳(MT)評価において、最先端のLLM判事より優れている。
論文 参考訳(メタデータ) (2025-04-07T11:37:26Z) - Multilingual Machine Translation with Open Large Language Models at Practical Scale: An Empirical Study [13.409987421121405]
GemmaX2-28は、28言語で最上位の多言語翻訳性能を達成する9Bモデルである。
GemmaX2-28 は TowerInstruct や XALMA などの最先端 (SOTA) モデルより一貫して優れている。
論文 参考訳(メタデータ) (2025-02-04T16:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。