論文の概要: From SALAMANDRA to SALAMANDRATA: BSC Submission for WMT25 General Machine Translation Shared Task
- arxiv url: http://arxiv.org/abs/2508.12774v1
- Date: Mon, 18 Aug 2025 09:48:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.164019
- Title: From SALAMANDRA to SALAMANDRATA: BSC Submission for WMT25 General Machine Translation Shared Task
- Title(参考訳): SALAMANDRA から SALAMANDRATA: BSC Submission for WMT25 General Machine Translation Shared Task
- Authors: Javier Garcia Gilabert, Xixian Liao, Severino Da Dalt, Ella Bohman, Audrey Mash, Francesca De Luca Fornaciari, Irene Baucells, Joan Llop, Miguel Claramunt Argote, Carlos Escolano, Maite Melero,
- Abstract要約: SALAMANDRA LLMを改良し、38のヨーロッパ言語に対する翻訳関連タスクにおいて高い性能を達成するよう特別に訓練した。
デコーディングには,最小ベイズリスクデコーディングとチューニングされたリグレードという,品質に配慮した2つの戦略を採用しました。
私たちは2B版と7B版のSaramanDRATAと新しいSaramanDRATA-V2モデルをHugging Face1で公開しています。
- 参考スコア(独自算出の注目度): 1.4174882537578843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present the SALAMANDRATA family of models, an improved iteration of SALAMANDRA LLMs (Gonzalez-Agirre et al., 2025) specifically trained to achieve strong performance in translation-related tasks for 38 European languages. SALAMANDRATA comes in two scales: 2B and 7B parameters. For both versions, we applied the same training recipe with a first step of continual pre-training on parallel data, and a second step of supervised fine-tuning on high-quality instructions. The BSC submission to the WMT25 General Machine Translation shared task is based on the 7B variant of SALAMANDRATA. We first adapted the model vocabulary to support the additional non-European languages included in the task. This was followed by a second phase of continual pre-training and supervised fine-tuning, carefully designed to optimize performance across all translation directions for this year's shared task. For decoding, we employed two quality-aware strategies: Minimum Bayes Risk Decoding and Tuned Re-ranking using COMET and COMET-KIWI respectively. We publicly release both the 2B and 7B versions of SALAMANDRATA, along with the newer SALAMANDRATA-V2 model, on Hugging Face1
- Abstract(参考訳): 本稿では,SALAMANDRA LLM(Gonzalez-Agirre et al , 2025)の改良版であるSALAMANDRATAファミリについて述べる。
SALAMANDRATAには、2Bパラメータと7Bパラメータの2つのスケールがある。
両バージョンにおいて、並列データに対する継続事前学習の第1ステップと、高品質な命令に対する教師付き微調整の第2ステップとで、同じトレーニングレシピを適用した。
WMT25 General Machine Translation共有タスクへのBSCの提出は、SALAMANDRATAの7B版に基づいている。
我々はまず、このタスクに含まれる追加のヨーロッパ以外の言語をサポートするために、モデル語彙を適応させた。
続いて第2段階の事前訓練と教師付き微調整が実施され、今年の共通作業のためにすべての翻訳方向のパフォーマンスを最適化するよう慎重に設計された。
復号化には,最小ベイズリスク復号法とCOMETとCOMET-KIWIの2つの品質対応戦略を採用した。
私たちは2B版と7B版のSaramanDRATAと新しいSaramanDRATA-V2モデルをHugging Face1で公開しています。
関連論文リスト
- Seed-X: Building Strong Multilingual Translation LLM with 7B Parameters [53.59868121093848]
7Bパラメータサイズを持つオープンソースの言語モデル(LLM)のファミリーであるSeed-Xを紹介する。
ベースモデルは、28言語にわたるモノリンガルコンテンツとバイリンガルコンテンツの両方を含む、多種多様な高品質データセットで事前訓練されている。
その後、インストラクションモデルは、Chain-of-Thought(CoT)推論によって翻訳され、強化学習(RL)によりさらに強化され、多様な言語対をまたいだより良い一般化が達成される。
論文 参考訳(メタデータ) (2025-07-18T03:19:43Z) - UvA-MT's Participation in the WMT23 General Translation Shared Task [7.4336950563281174]
本稿では,UvA-MTがWMT 2023に提案した汎用機械翻訳タスクについて述べる。
そこで本研究では,一方のモデルを用いて双方向タスクを処理することにより,従来のバイリンガル翻訳と同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2023-10-15T20:49:31Z) - Toward Efficient Language Model Pretraining and Downstream Adaptation
via Self-Evolution: A Case Study on SuperGLUE [203.65227947509933]
このレポートでは、スーパーGLUEのリーダーボードにJDExplore d-teamのVega v2を提出しました。
SuperGLUEは、広く使われている汎用言語理解評価(GLUE)ベンチマークよりも難易度が高く、8つの難しい言語理解タスクを含んでいる。
論文 参考訳(メタデータ) (2022-12-04T15:36:18Z) - TSMind: Alibaba and Soochow University's Submission to the WMT22
Translation Suggestion Task [16.986003476984965]
本稿では,Alibaba と Soochow 大学 TSMind の WMT 2022 Shared Task on Translation Suggestion への共同提出について述べる。
基本的に、大規模な事前学習モデルに基づいて、下流タスクを微調整するモデルパラダイムを利用する。
トレーニングデータの限られた使用状況を考えると,WeTSが提案するデータ拡張戦略に従えば,TSモデルの性能が向上する。
論文 参考訳(メタデータ) (2022-11-16T15:43:31Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - Investigating Code-Mixed Modern Standard Arabic-Egyptian to English
Machine Translation [6.021269454707625]
コード混在の現代標準アラビア語とエジプト・アラビア語(MSAEA)を英語に調査する。
我々は、(i)標準のエンドツーエンドシーケンス・ツー・シーケンス(S2S)変換器と(ii)事前訓練されたS2S言語モデル(LM)を用いて、異なる条件下でモデルを開発する。
我々は、スクラッチから訓練されたS2Sモデルと様々なアラビア方言のデータに基づいて微調整されたLMを用いて、MSA-EN並列データのみを用いて、合理的な性能を得ることができる。
論文 参考訳(メタデータ) (2021-05-28T03:38:35Z) - Cross-lingual Retrieval for Iterative Self-Supervised Training [66.3329263451598]
言語間のアライメントは、Seq2seqモデルを、自身のエンコーダ出力を用いてマイニングされた文対上で訓練することでさらに改善することができる。
我々は,反復型自己教師型訓練のための言語間検索という新しい手法を開発した。
論文 参考訳(メタデータ) (2020-06-16T21:30:51Z) - KEIS@JUST at SemEval-2020 Task 12: Identifying Multilingual Offensive
Tweets Using Weighted Ensemble and Fine-Tuned BERT [2.105564340986074]
本研究はSemEval-2020 Task 12におけるKEIS@JUST参加について述べる。
2つの主要なアプローチが開発され、最初はアラビア語と英語の両方に取り組み、重み付けされたアンサンブルはBi-GRUとCNNで構成されている。
2つ目は、Bi-LSTMやBi-GRUといったリカレントニューラルネットワークの横にあるBERTからの転送学習である。
論文 参考訳(メタデータ) (2020-05-15T23:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。