論文の概要: Hunyuan-MT Technical Report
- arxiv url: http://arxiv.org/abs/2509.05209v2
- Date: Tue, 09 Sep 2025 15:51:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 12:33:22.819499
- Title: Hunyuan-MT Technical Report
- Title(参考訳): Hunyuan-MT技術報告
- Authors: Mao Zheng, Zheng Li, Bingxin Qu, Mingyang Song, Yang Du, Mingrui Sun, Di Wang,
- Abstract要約: Hunyuan-MT-7Bは33の主要言語にまたがる双方向翻訳をサポートしている。
Hunyuan-MT-Chimera-7Bは、スローシンキングモードにインスパイアされた翻訳モデルである。
- 参考スコア(独自算出の注目度): 20.87433605086714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this report, we introduce Hunyuan-MT-7B, our first open-source multilingual translation model, which supports bidirectional translation across 33 major languages and places a special emphasis on translation between Mandarin and several ethnic minority languages as well as dialects. Furthermore, to serve and address diverse translation scenarios and enhance model performance at test time, we introduce Hunyuan-MT-Chimera-7B, a translation model inspired by the slow thinking mode. This model integrates multiple outputs generated by the Hunyuan-MT-7B model under varying parameter settings, thereby achieving performance superior to that of conventional slow-thinking models based on Chain-of-Thought (CoT). The development of our models follows a holistic training process specifically engineered for multilingual translation, which begins with general and MT-oriented pre-training to build foundational capabilities, proceeds to Supervised Fine-Tuning (SFT) for task-specific adaptation, and culminates in advanced alignment through Reinforcement Learning (RL) and weak-to-strong RL. Through comprehensive experimentation, we demonstrate that both Hunyuan-MT-7B and Hunyuan-MT-Chimera-7B significantly outperform all translation-specific models of comparable parameter size and most of the SOTA large models, particularly on the task of translation between Mandarin and minority languages as well as dialects. In the WMT2025 shared task (General Machine Translation), our models demonstrate state-of-the-art performance, ranking first in 30 out of 31 language pairs. This result highlights the robustness of our models across a diverse linguistic spectrum, encompassing high-resource languages such as Chinese, English, and Japanese, as well as low-resource languages including Czech, Marathi, Estonian, and Icelandic.
- Abstract(参考訳): 本稿では,33の主要言語間の双方向翻訳をサポートするオープンソース多言語翻訳モデルであるHunyuan-MT-7Bを紹介する。
さらに,多様な翻訳シナリオに対処し,テスト時のモデル性能を向上させるために,遅い思考モードにインスパイアされた翻訳モデルであるHunyuan-MT-Chimera-7Bを導入する。
このモデルでは,Hunyuan-MT-7Bモデルによって生成された複数の出力をパラメータ設定で統合し,Chain-of-Thought(CoT)に基づく従来のスロー思考モデルよりも優れた性能を実現する。
本モデルの開発は,多言語翻訳に特化して開発された総合的学習プロセスに従っており,基本機能を構築するための一般およびMT指向の事前学習から始まり,タスク固有適応のための改良された微調整(SFT)に進むとともに,強化学習(RL)と弱強RLによる高度なアライメントを達成している。
総合実験により,Hunyuan-MT-7BとHunyuan-MT-Chimera-7Bの両者が,同等のパラメータサイズとSOTAの大規模モデル,特にマンダリンとマイノリティ言語と方言間の翻訳作業において,翻訳特化モデルよりも有意に優れていることを示した。
WMT2025共有タスク(General Machine Translation)では,31言語ペア中30言語にランクインし,最先端のパフォーマンスを示す。
この結果は、チェコ語、マラタイ語、エストニア語、アイスランド語などの低リソース言語だけでなく、中国語、英語、日本語などの高リソース言語を含む多様な言語スペクトルにわたって、我々のモデルの堅牢性を強調している。
関連論文リスト
- Seed-X: Building Strong Multilingual Translation LLM with 7B Parameters [53.59868121093848]
7Bパラメータサイズを持つオープンソースの言語モデル(LLM)のファミリーであるSeed-Xを紹介する。
ベースモデルは、28言語にわたるモノリンガルコンテンツとバイリンガルコンテンツの両方を含む、多種多様な高品質データセットで事前訓練されている。
その後、インストラクションモデルは、Chain-of-Thought(CoT)推論によって翻訳され、強化学習(RL)によりさらに強化され、多様な言語対をまたいだより良い一般化が達成される。
論文 参考訳(メタデータ) (2025-07-18T03:19:43Z) - FuxiMT: Sparsifying Large Language Models for Chinese-Centric Multilingual Machine Translation [43.26446958873554]
広汎言語モデル(LLM)を利用した中国語中心多言語機械翻訳モデルFuxiMTを提案する。
FuxiMTはMixture-of-Experts (MoEs)を導入し、様々なリソースレベルにわたる堅牢なパフォーマンスのためのカリキュラム学習戦略を採用している。
論文 参考訳(メタデータ) (2025-05-20T12:09:17Z) - Revisiting Machine Translation for Cross-lingual Classification [91.43729067874503]
この分野のほとんどの研究は、機械翻訳コンポーネントではなく多言語モデルに焦点を当てている。
より強力なMTシステムを用いて、原文のトレーニングと機械翻訳テキストの推論のミスマッチを緩和することにより、翻訳テストは以前想定していたよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-23T16:56:10Z) - Pre-training Multilingual Neural Machine Translation by Leveraging
Alignment Information [72.2412707779571]
mRASPは、汎用多言語ニューラルマシン翻訳モデルを事前訓練するためのアプローチである。
我々は,低,中,豊かな資源を含む多種多様な環境における42の翻訳方向の実験を行い,エキゾチックな言語対への変換を行った。
論文 参考訳(メタデータ) (2020-10-07T03:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。