論文の概要: New Trends for Modern Machine Translation with Large Reasoning Models
- arxiv url: http://arxiv.org/abs/2503.10351v2
- Date: Fri, 14 Mar 2025 12:09:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:08:05.907731
- Title: New Trends for Modern Machine Translation with Large Reasoning Models
- Title(参考訳): 大規模推論モデルを用いた機械翻訳の新展開
- Authors: Sinuo Liu, Chenyang Lyu, Minghao Wu, Longyue Wang, Weihua Luo, Kaifu Zhang, Zifu Shang,
- Abstract要約: 大規模推論モデル(LRM)の最近の進歩は,機械翻訳(MT)の新たな可能性を開いた。
このポジションペーパーは、LRMが従来のニューラルMTとLLMベースのMTパラダイムを実質的に変換したと主張している。
我々は、LRMの翻訳システムはテキストコンバータだけでなく、テキストを超えて意味を推論できる多言語認知エージェントであると考えている。
- 参考スコア(独自算出の注目度): 37.81295890762503
- License:
- Abstract: Recent advances in Large Reasoning Models (LRMs), particularly those leveraging Chain-of-Thought reasoning (CoT), have opened brand new possibility for Machine Translation (MT). This position paper argues that LRMs substantially transformed traditional neural MT as well as LLMs-based MT paradigms by reframing translation as a dynamic reasoning task that requires contextual, cultural, and linguistic understanding and reasoning. We identify three foundational shifts: 1) contextual coherence, where LRMs resolve ambiguities and preserve discourse structure through explicit reasoning over cross-sentence and complex context or even lack of context; 2) cultural intentionality, enabling models to adapt outputs by inferring speaker intent, audience expectations, and socio-linguistic norms; 3) self-reflection, LRMs can perform self-reflection during the inference time to correct the potential errors in translation especially extremely noisy cases, showing better robustness compared to simply mapping X->Y translation. We explore various scenarios in translation including stylized translation, document-level translation and multimodal translation by showcasing empirical examples that demonstrate the superiority of LRMs in translation. We also identify several interesting phenomenons for LRMs for MT including auto-pivot translation as well as the critical challenges such as over-localisation in translation and inference efficiency. In conclusion, we think that LRMs redefine translation systems not merely as text converters but as multilingual cognitive agents capable of reasoning about meaning beyond the text. This paradigm shift reminds us to think of problems in translation beyond traditional translation scenarios in a much broader context with LRMs - what we can achieve on top of it.
- Abstract(参考訳): 近年のLarge Reasoning Models (LRMs) の進歩、特にChain-of-Thought reasoning (CoT) を利用するものは、Machine Translation (MT) の新たな可能性を開いた。
このポジションペーパーでは、LRMは文脈的、文化的、言語的理解と推論を必要とする動的推論タスクとして翻訳を再フレーミングすることで、従来のニューラルMTだけでなく、LLMベースのMTパラダイムも大幅に変化したと論じている。
私たちは3つの基本シフトを特定します。
1) 文脈コヒーレンス(文脈コヒーレンス)であって, LRMがあいまいさを解消し, 横断文及び複雑な文脈に対する明示的な推論又は文脈の欠如を通じて, 談話構造を保存すること。
2 話者意図、聴衆の期待及び社会言語規範を推定することにより、モデルが出力を適応させることができる文化的意図
3) 自己反射, LRMは, 予測時間中に自己反射を行い, 特に非常にノイズの多い症例の潜在的な誤りを補正し, 単にX->Y翻訳のマッピングよりも頑健性を示した。
我々は,文体翻訳,文書レベルの翻訳,多モーダル翻訳など,翻訳におけるLEMの優位性を示す経験的な例を示すことによって,翻訳のさまざまなシナリオを探求する。
また,自動ピボット翻訳や,翻訳における過局所化や推論効率といった重要な課題を含む,MT 用 LRM の興味深い現象もいくつか見出した。
結論として, LRMはテキストコンバータだけでなく, テキストを超えて意味を推論できる多言語認知エージェントとして, 翻訳システムを再定義すると考えられる。
このパラダイムシフトは、従来の翻訳シナリオを超えて、LEMとより広いコンテキストで翻訳の問題を考えることを思い出させます。
関連論文リスト
- Refining Translations with LLMs: A Constraint-Aware Iterative Prompting Approach [7.5069214839655345]
大言語モデル(LLM)は機械翻訳(MT)において顕著な熟練性を示している
本稿では,意味的正確性に不可欠なキーワードを優先することで,翻訳忠実度を高める多段階のプロンプトチェーンを提案する。
FLORES-200およびWMTデータセットのベースモデルとしてLlamaとQwenを使用した実験は、ベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-11-13T05:40:24Z) - LLM-based Translation Inference with Iterative Bilingual Understanding [52.46978502902928]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - MT-PATCHER: Selective and Extendable Knowledge Distillation from Large Language Models for Machine Translation [61.65537912700187]
機械翻訳(MT)分野における言語モデル(LLM)の強みを実証した。
我々は,LLMから既存のMTモデルに選択的かつ包括的かつ積極的に知識を伝達するMT-Patcherというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-14T16:07:39Z) - TEaR: Improving LLM-based Machine Translation with Systematic Self-Refinement [26.26493253161022]
大規模言語モデル(LLM)は機械翻訳(MT)において印象的な結果を得た
我々は,体系的LLMに基づく自己精製翻訳フレームワーク,textbfTEaRを紹介する。
論文 参考訳(メタデータ) (2024-02-26T07:58:12Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Adaptive Machine Translation with Large Language Models [7.803471587734353]
実時間適応型機械翻訳を改善するために,テキスト内学習をいかに活用できるかを検討する。
英語-アラビア語(EN-AR)、英語-中国語(EN-ZH)、英語-フランス語(EN-FR)、英語-キニャルワンダ(EN-RW)、英語-スペイン語(EN-ES)の5つの多種多様な言語対の実験を行った。
論文 参考訳(メタデータ) (2023-01-30T21:17:15Z) - Tackling Ambiguity with Images: Improved Multimodal Machine Translation
and Contrastive Evaluation [72.6667341525552]
本稿では,ニューラルアダプターとガイド付き自己注意機構を用いた,強いテキストのみのMTモデルに基づく新しいMT手法を提案する。
また,不明瞭な文とその翻訳が可能なコントラスト型多モーダル翻訳評価セットであるCoMMuTEについても紹介する。
提案手法は, 標準英語-フランス語, 英語-ドイツ語, 英語-チェコ語のベンチマークにおいて, 強いテキストのみのモデルと比較して, 競争力のある結果が得られる。
論文 参考訳(メタデータ) (2022-12-20T10:18:18Z) - When Does Translation Require Context? A Data-driven, Multilingual
Exploration [71.43817945875433]
談話の適切な処理は機械翻訳(MT)の品質に大きく貢献する
文脈認識型MTにおける最近の研究は、評価中に少量の談話現象を標的にしようとしている。
談話現象のモデル性能を識別・評価するタグの集合である,多言語談話認識ベンチマークを開発した。
論文 参考訳(メタデータ) (2021-09-15T17:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。