論文の概要: TAT-R1: Terminology-Aware Translation with Reinforcement Learning and Word Alignment
- arxiv url: http://arxiv.org/abs/2505.21172v1
- Date: Tue, 27 May 2025 13:26:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.668865
- Title: TAT-R1: Terminology-Aware Translation with Reinforcement Learning and Word Alignment
- Title(参考訳): TAT-R1:強化学習と単語アライメントによる用語認識翻訳
- Authors: Zheng Li, Mao Zheng, Mingyang Song, Wenjie Yang,
- Abstract要約: 強化学習と単語アライメントを訓練した用語認識翻訳モデルである textbfTAT-R1 を提案する。
本モデルは,ベースラインモデルと比較して,用語翻訳の精度を著しく向上させる。
- 参考スコア(独自算出の注目度): 18.162673576513836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, deep reasoning large language models(LLMs) like DeepSeek-R1 have made significant progress in tasks such as mathematics and coding. Inspired by this, several studies have employed reinforcement learning(RL) to enhance models' deep reasoning capabilities and improve machine translation(MT) quality. However, the terminology translation, an essential task in MT, remains unexplored in deep reasoning LLMs. In this paper, we propose \textbf{TAT-R1}, a terminology-aware translation model trained with reinforcement learning and word alignment. Specifically, we first extract the keyword translation pairs using a word alignment model. Then we carefully design three types of rule-based alignment rewards with the extracted alignment relationships. With those alignment rewards, the RL-trained translation model can learn to focus on the accurate translation of key information, including terminology in the source text. Experimental results show the effectiveness of TAT-R1. Our model significantly improves terminology translation accuracy compared to the baseline models while maintaining comparable performance on general translation tasks. In addition, we conduct detailed ablation studies of the DeepSeek-R1-like training paradigm for machine translation and reveal several key findings.
- Abstract(参考訳): 近年,DeepSeek-R1のような大規模言語モデル(LLM)が数学やコーディングといったタスクで大きく進歩している。
これに触発されたいくつかの研究では、モデルの深い推論能力を高め、機械翻訳(MT)の品質を向上させるために強化学習(RL)を採用している。
しかし、MTにおける重要な課題である用語翻訳は、深い推論 LLM において未解明のままである。
本稿では、強化学習と単語アライメントを訓練した用語認識翻訳モデルである「textbf{TAT-R1}」を提案する。
具体的には,単語アライメントモデルを用いてキーワード翻訳ペアを抽出する。
次に、抽出したアライメント関係を用いてルールベースのアライメント報酬を3種類のアライメント報酬として慎重に設計する。
これらのアライメント報酬により、RL学習翻訳モデルは、ソーステキストの用語を含む重要な情報の正確な翻訳に集中することができる。
実験の結果,TAT-R1の有効性が示された。
本モデルは,一般的な翻訳タスクにおいて同等の性能を維持しつつ,ベースラインモデルと比較して,用語翻訳精度を著しく向上させる。
さらに,機械翻訳のためのDeepSeek-R1-likeトレーニングパラダイムの詳細なアブレーション研究を行い,いくつかの重要な知見を明らかにした。
関連論文リスト
- ExTrans: Multilingual Deep Reasoning Translation via Exemplar-Enhanced Reinforcement Learning [77.41383117199227]
我々はポリシーMTモデルの翻訳結果と強力なLRMを比較するための新たな報酬モデリング手法を設計する。
Qwen2.5-7B-インストラクトをバックボーンとして、トレーニングされたモデルは、文学翻訳における新しい最先端のパフォーマンスを達成する。
11言語による多言語設定にメソッドを拡張します。
論文 参考訳(メタデータ) (2025-05-19T11:34:47Z) - Deep Reasoning Translation via Reinforcement Learning [77.41383117199227]
我々は、強化学習を通して自由翻訳を学ぶ深層推論翻訳モデルDeepTransを紹介する。
原文が与えられた場合、報酬モデルは、強化学習中にそれらを思考し、自由に翻訳する方法を深層翻訳モデルに教える。
実験の結果,DeepTransは文学翻訳における性能を16.3%向上させることがわかった。
論文 参考訳(メタデータ) (2025-04-14T12:40:39Z) - R1-T1: Fully Incentivizing Translation Capability in LLMs via Reasoning Learning [23.721573333602677]
本稿では,R1-Translator (R1-T1)について紹介する。
提案手法は3つの革新を先導する:(1)より広いMTシナリオ(例えば、マルチリンガルMT、ドメインMT)への推論に基づく翻訳の拡張、(2)コンテキスト認識パラフレーズやバック翻訳のようなハイブリッドな人間の戦略を反映する6つの専門家によるCoTテンプレートの定式化、(3)RLによるCoT発見の実現。
論文 参考訳(メタデータ) (2025-02-27T03:57:00Z) - Efficient Technical Term Translation: A Knowledge Distillation Approach for Parenthetical Terminology Translation [0.0]
本稿では,専門分野におけるコミュニケーションの明確化に不可欠である専門用語を正確に翻訳することの課題に対処する。
本研究は, ペアレンテティカル・ターミノロジー・トランスフォーメーション (PTT) タスクを導入し, ペアレンテティカル・ターミノロジー・トランスフォーメーション(PTT)タスクの翻訳とともに, ペアレンテティカル・ターミノロジー・トランスフォーメーション(Parenthetical Terminology Translation, PTT)タスクを導入した。
そこで我々は,単語の全体的な翻訳精度と正しい括弧表現の両方を評価するための新しい評価指標を開発した。
論文 参考訳(メタデータ) (2024-10-01T13:40:28Z) - Rethinking Human-like Translation Strategy: Integrating Drift-Diffusion
Model with Large Language Models for Machine Translation [15.333148705267012]
本稿では,人間翻訳者の動的意思決定を制約リソース下でエミュレートするために,Drift-Diffusion Modelを用いたThinkerを提案する。
WMT22とCommonMTのデータセットを用いて、高リソース、低リソース、コモンセンスの翻訳設定で実験を行う。
また,提案手法の有効性と有効性を示すために,コモンセンス翻訳のさらなる分析と評価を行う。
論文 参考訳(メタデータ) (2024-02-16T14:00:56Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Learning Source Phrase Representations for Neural Machine Translation [65.94387047871648]
本稿では,対応するトークン表現から句表現を生成可能な注意句表現生成機構を提案する。
実験では,強力なトランスフォーマーベースライン上でのWMT 14の英語・ドイツ語・英語・フランス語タスクにおいて,大幅な改善が得られた。
論文 参考訳(メタデータ) (2020-06-25T13:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。