論文の概要: TranslateGemma Technical Report
- arxiv url: http://arxiv.org/abs/2601.09012v3
- Date: Mon, 19 Jan 2026 09:52:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 18:45:13.520508
- Title: TranslateGemma Technical Report
- Title(参考訳): TranslateGemmaテクニカルレポート
- Authors: Mara Finkelstein, Isaac Caswell, Tobias Domhan, Jan-Thorsten Peter, Juraj Juraska, Parker Riley, Daniel Deutsch, Geza Kovacs, Cole Dilanni, Colin Cherry, Eleftheria Briakou, Elizabeth Nielsen, Jiaming Luo, Kat Black, Ryan Mullins, Sweta Agrawal, Wenda Xu, Erin Kats, Stephane Jaskiewicz, Markus Freitag, David Vilar,
- Abstract要約: Gemma 3基盤モデルに基づくオープンマシン翻訳モデルのスイートであるTranslateGemmaを提示する。
すべてのサイズにわたるベースラインGemma 3モデルに対して、一貫性と実質的な向上を示します。
また,TranslateGemmaモデルでは,Vistra画像変換ベンチマークの性能向上とともに,強力なマルチモーダル機能を維持していることを示す。
- 参考スコア(独自算出の注目度): 39.30046490326195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present TranslateGemma, a suite of open machine translation models based on the Gemma 3 foundation models. To enhance the inherent multilingual capabilities of Gemma 3 for the translation task, we employ a two-stage fine-tuning process. First, supervised fine-tuning is performed using a rich mixture of high-quality large-scale synthetic parallel data generated via state-of-the-art models and human-translated parallel data. This is followed by a reinforcement learning phase, where we optimize translation quality using an ensemble of reward models, including MetricX-QE and AutoMQM, targeting translation quality. We demonstrate the effectiveness of TranslateGemma with human evaluation on the WMT25 test set across 10 language pairs and with automatic evaluation on the WMT24++ benchmark across 55 language pairs. Automatic metrics show consistent and substantial gains over the baseline Gemma 3 models across all sizes. Notably, smaller TranslateGemma models often achieve performance comparable to larger baseline models, offering improved efficiency. We also show that TranslateGemma models retain strong multimodal capabilities, with enhanced performance on the Vistra image translation benchmark. The release of the open TranslateGemma models aims to provide the research community with powerful and adaptable tools for machine translation.
- Abstract(参考訳): Gemma 3基盤モデルに基づくオープンマシン翻訳モデルのスイートであるTranslateGemmaを提示する。
翻訳タスクにおけるGemma 3の固有多言語機能を強化するために,2段階の微調整プロセスを用いる。
まず、最先端のモデルと人間変換された並列データを用いて、高品質な大規模合成並列データのリッチな混合を用いて教師付き微調整を行う。
次に強化学習フェーズで,MetricX-QEやAutoMQMといった,翻訳品質を目標とした報酬モデルのアンサンブルを使用して,翻訳品質を最適化する。
本稿では,10言語対にまたがるWMT25テストセットと,55言語対にまたがるWMT24++ベンチマークの自動評価において,人間による評価によるTranslateGemmaの有効性を示す。
自動メトリクスは、すべてのサイズでベースラインのGemma 3モデルよりも一貫性があり、大幅に向上している。
特に、小さなTranslateGemmaモデルは、より大きなベースラインモデルに匹敵するパフォーマンスを実現し、効率が向上する。
また,TranslateGemmaモデルでは,Vistra画像変換ベンチマークの性能向上とともに,強力なマルチモーダル機能を維持していることを示す。
オープンなTranslateGemmaモデルのリリースは、研究コミュニティに機械翻訳のための強力で適応可能なツールを提供することを目的としている。
関連論文リスト
- Trans-Zero: Self-Play Incentivizes Large Language Models for Multilingual Translation Without Parallel Data [64.4458540273004]
言語モデル(LLM)の単言語データと本質的な多言語知識のみを活用するセルフプレイフレームワークを提案する。
実験により、このアプローチは大規模並列データに基づいて訓練されたモデルの性能と一致するだけでなく、非英語翻訳の方向でも優れていることが示された。
論文 参考訳(メタデータ) (2025-04-20T16:20:30Z) - Multilingual Machine Translation with Open Large Language Models at Practical Scale: An Empirical Study [13.409987421121405]
GemmaX2-28は、28言語で最上位の多言語翻訳性能を達成する9Bモデルである。
GemmaX2-28 は TowerInstruct や XALMA などの最先端 (SOTA) モデルより一貫して優れている。
論文 参考訳(メタデータ) (2025-02-04T16:57:03Z) - MTUncertainty: Assessing the Need for Post-editing of Machine Translation Outputs by Fine-tuning OpenAI LLMs [6.822926897514793]
TQEは機械翻訳(MT)と人間翻訳(HT)の両方の品質を基準翻訳なしで評価する上で重要である。
この目的のために,最先端の大規模言語モデル (LLM) が利用できるかを検討する。
OpenAIモデルを最先端技術として捉え、バイナリ分類タスクとしてTQEにアプローチします。
論文 参考訳(メタデータ) (2023-07-31T21:13:30Z) - Unified Model Learning for Various Neural Machine Translation [63.320005222549646]
既存の機械翻訳(NMT)研究は主にデータセット固有のモデルの開発に焦点を当てている。
我々は,NMT(UMLNMT)のための統一モデル学習モデル(Unified Model Learning for NMT)を提案する。
OurNMTは、データセット固有のモデルよりも大幅に改善され、モデルデプロイメントコストが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-04T12:21:52Z) - The YiTrans End-to-End Speech Translation System for IWSLT 2022 Offline
Shared Task [92.5087402621697]
本稿では,IWSLT 2022オフラインタスクに対するエンドツーエンドYiTrans音声翻訳システムの提案について述べる。
YiTransシステムは、大規模な訓練済みエンコーダデコーダモデル上に構築されている。
最終提出は自動評価基準でまず英語・ドイツ語・英語・中国語のエンド・ツー・エンド・システムにランク付けする。
論文 参考訳(メタデータ) (2022-06-12T16:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。