論文の概要: DRT: Deep Reasoning Translation via Long Chain-of-Thought
- arxiv url: http://arxiv.org/abs/2412.17498v3
- Date: Mon, 10 Feb 2025 11:35:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 16:44:24.669321
- Title: DRT: Deep Reasoning Translation via Long Chain-of-Thought
- Title(参考訳): DRT:Long Chain-of-Thoughtによる深層推論翻訳
- Authors: Jiaan Wang, Fandong Meng, Yunlong Liang, Jie Zhou,
- Abstract要約: 本稿では,長いCoTをニューラルネットワーク翻訳(MT)に適用する試みであるDRTを紹介する。
まず、既存の文献から模範文や比喩文を含む文を抽出し、その後、長い思考を通してこれらの文を翻訳する多エージェントフレームワークを開発する。
Qwen2.5とLLama-3.1をバックボーンとして使用することで、DRTモデルは機械翻訳中に思考プロセスを学ぶことができる。
- 参考スコア(独自算出の注目度): 89.48208612476068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, O1-like models have emerged as representative examples, illustrating the effectiveness of long chain-of-thought (CoT) in reasoning tasks such as math and coding tasks. In this paper, we introduce DRT, an attempt to bring the success of long CoT to neural machine translation (MT). Specifically, in view of the literature books that might involve similes and metaphors, translating these texts to a target language is very difficult in practice due to cultural differences. In such cases, literal translation often fails to convey the intended meaning effectively. Even for professional human translators, considerable thought must be given to preserving semantics throughout the translation process. To simulate LLMs' long thought ability in MT, we first mine sentences containing similes or metaphors from existing literature books, and then develop a multi-agent framework to translate these sentences via long thought. In the multi-agent framework, a translator is used to iteratively translate the source sentence under the suggestions provided by an advisor. To ensure the effectiveness of the long thoughts, an evaluator is also employed to quantify the translation quality in each round. In this way, we collect tens of thousands of long-thought MT data, which is used to train our DRT. Using Qwen2.5 and LLama-3.1 as the backbones, DRT models can learn the thought process during machine translation, and outperform vanilla LLMs as well as LLMs which are simply fine-tuning on the paired sentences without long thought, showing its effectiveness.
- Abstract(参考訳): 近年、O1のようなモデルが代表的な例として登場し、数学やコーディングタスクといったタスクの推論における長いチェーン・オブ・シント(CoT)の有効性が指摘されている。
本稿では,長いCoTをニューラルネットワーク翻訳(MT)に適用する試みであるDRTを紹介する。
具体的には、シミュラや比喩を含む文学書の観点からは、文化的な違いから、実際にこれらの文章を対象言語に翻訳することは極めて困難である。
このような場合、リテラル翻訳は意図した意味を効果的に伝達できないことが多い。
プロの人間翻訳者であっても、翻訳過程を通して意味を保存するためには相当な思考が必要である。
MTにおけるLLMの長年の思考能力をシミュレーションするために,我々はまず,既存の文献から模擬文やメタファーを含む文を抽出し,その文を長い思考で翻訳するマルチエージェント・フレームワークを開発した。
マルチエージェントフレームワークにおいて、インシデントが提供する提案の下で、ソース文を反復的に翻訳するためにトランスレータを使用する。
長い思考の有効性を確保するため、各ラウンドの翻訳品質を定量化するために評価器も用いられる。
このようにして、DRTのトレーニングに使用される、何万もの長大なMTデータを収集します。
Qwen2.5 と LLama-3.1 をバックボーンとして使用することにより、DRT モデルは機械翻訳中の思考過程を学習し、より優れたバニラ LLM と、長く考えずにペア化された文を微調整した LLM を上回り、その効果を示す。
関連論文リスト
- Deep Reasoning Translation via Reinforcement Learning [77.41383117199227]
我々は、強化学習を通して自由翻訳を学ぶ深層推論翻訳モデルDeepTransを紹介する。
原文が与えられた場合、報酬モデルは、強化学習中にそれらを思考し、自由に翻訳する方法を深層翻訳モデルに教える。
実験の結果,DeepTransは文学翻訳における性能を16.3%向上させることがわかった。
論文 参考訳(メタデータ) (2025-04-14T12:40:39Z) - Compositional Translation: A Novel LLM-based Approach for Low-resource Machine Translation [20.704153242284114]
機械翻訳は、翻訳する文と意味的に類似している場合に、文脈内例の恩恵を受けることが示されている。
本稿では,LLMに基づく新しい翻訳パラダイムである合成翻訳を提案する。
私たちの直感は、これらの短いフレーズは本質的に翻訳が簡単で、関連する例と簡単に一致するので、このアプローチは翻訳を改善するべきだということです。
論文 参考訳(メタデータ) (2025-03-06T15:37:31Z) - Lost in Literalism: How Supervised Training Shapes Translationese in LLMs [51.04435855143767]
大規模言語モデル(LLM)は機械翻訳において顕著な成功を収めた。
しかし、過度にリテラルと不自然な翻訳を特徴とする翻訳は、依然として永続的な課題である。
我々は、黄金の基準を磨き、不自然なトレーニングインスタンスをフィルタリングするなど、これらのバイアスを軽減する方法を導入する。
論文 参考訳(メタデータ) (2025-03-06T12:14:45Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Agent-SiMT: Agent-assisted Simultaneous Machine Translation with Large Language Models [38.49925017512848]
同時機械翻訳(SiMT)は、原文を読みながらターゲット翻訳を生成する。
既存の SiMT メソッドは一般的に、ポリシーを同時に決定し、翻訳を生成する、従来の Transformer アーキテクチャを採用している。
本稿では,Large Language Models(LLM)と従来のSiMTメソッドの長所を組み合わせたフレームワークであるAgent-SiMTを紹介する。
論文 参考訳(メタデータ) (2024-06-11T03:09:20Z) - (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [52.18246881218829]
本稿では,大言語モデル(LLM)をベースとした多エージェントフレームワークを,TransAgentsという企業として実装した。
本システムの有効性を評価するため,モノリンガル・ヒューマン・プライス(MHP)とバイリンガル・LLM・プライス(BLP)の2つの革新的な評価戦略を提案する。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Machine Translation Models are Zero-Shot Detectors of Translation Direction [46.41883195574249]
平行テキストの翻訳方向を検出することは、機械翻訳訓練や評価に応用できるが、盗作や偽造の主張を解消するといった法医学的応用もある。
本研究では,翻訳文や機械翻訳文でよく知られた単純化効果によって動機付けられた,$p(texttranslation|text Origin)>p(textgenic|texttranslation)$という単純な仮説に基づいて,翻訳方向検出のための教師なしアプローチを検討する。
論文 参考訳(メタデータ) (2024-01-12T18:59:02Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Mitigating Hallucinations and Off-target Machine Translation with
Source-Contrastive and Language-Contrastive Decoding [53.84948040596055]
修正された復号化目標を用いて、障害ケースを緩和する2つの関連手法を提案する。
大規模多言語モデルM2M-100 (418M) とSMaLL-100の実験は、これらの手法が幻覚やターゲット外の翻訳を抑制することを示した。
論文 参考訳(メタデータ) (2023-09-13T17:15:27Z) - MTUncertainty: Assessing the Need for Post-editing of Machine Translation Outputs by Fine-tuning OpenAI LLMs [6.822926897514793]
TQEは機械翻訳(MT)と人間翻訳(HT)の両方の品質を基準翻訳なしで評価する上で重要である。
この目的のために,最先端の大規模言語モデル (LLM) が利用できるかを検討する。
OpenAIモデルを最先端技術として捉え、バイナリ分類タスクとしてTQEにアプローチします。
論文 参考訳(メタデータ) (2023-07-31T21:13:30Z) - TIM: Teaching Large Language Models to Translate with Comparison [78.66926087162672]
本稿では,LLMに翻訳学習を教えるために,サンプルを用いた新しいフレームワークを提案する。
我々のアプローチは、正しい翻訳例と間違った翻訳例をモデルに提示し、好みの損失を使ってモデルの学習をガイドすることである。
本研究は,翻訳タスクのための微調整LDMの新しい視点を提供し,高品質な翻訳を実現するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2023-07-10T08:15:40Z) - Do GPTs Produce Less Literal Translations? [20.095646048167612]
大規模言語モデル(LLM)は多くの自然言語生成や理解タスクに対処できる汎用言語モデルとして登場した。
GPTからの英語(E-X)からの翻訳はリテラルが低い傾向にあり、機械翻訳の品質指標に類似またはより良いスコアが示されることがわかりました。
論文 参考訳(メタデータ) (2023-05-26T10:38:31Z) - The RoyalFlush System for the WMT 2022 Efficiency Task [11.00644143928471]
本稿では、WMT 2022翻訳効率タスクに対するRoyal Neural Machine Translation Systemの提出について述べる。
一般的に使われている自己回帰翻訳システムとは異なり、我々はハイブリッド回帰翻訳と呼ばれる2段階の翻訳パラダイムを採用した。
われわれの最速のシステムはGPUレイテンシ設定で6k+ワード/秒に達し、昨年の勝者より約3.1倍速いと見積もられている。
論文 参考訳(メタデータ) (2022-12-03T05:36:10Z) - Hybrid-Regressive Neural Machine Translation [11.634586560239404]
自己回帰的・非自己回帰的翻訳パラダイムの長所をうまく組み合わせる方法について検討する。
ハイブリッド回帰翻訳(HRT)と呼ばれる新しい2段階翻訳プロトタイプを提案する。
HRTは、WMT En-Deタスクで最先端のBLEUスコア28.49を達成し、バッチサイズやデバイスに関わらず、ATよりも少なくとも1.5倍高速である。
論文 参考訳(メタデータ) (2022-10-19T09:26:15Z) - Rethinking Round-Trip Translation for Machine Translation Evaluation [44.83568796515321]
ラウンドトリップ翻訳が参照なしで自動評価に利用できるという驚くべき発見を報告する。
ラウンドトリップ翻訳が複数の機械翻訳評価タスクに有用であることを示す。
論文 参考訳(メタデータ) (2022-09-15T15:06:20Z) - BitextEdit: Automatic Bitext Editing for Improved Low-Resource Machine
Translation [53.55009917938002]
自動編集によりマイニングしたビットクストを改良することを提案する。
提案手法は,5つの低リソース言語ペアと10の翻訳方向に対して,最大8個のBLEUポイントでCCMatrixマイニングビットクストの品質を向上することを示す。
論文 参考訳(メタデータ) (2021-11-12T16:00:39Z) - Non-Autoregressive Translation with Layer-Wise Prediction and Deep
Supervision [33.04082398101807]
Transformerのような既存のニューラルネットワーク翻訳モデルは高い性能を達成するが、単語を1つずつデコードする。
最近の非自己回帰翻訳モデルは推論を高速化するが、その品質は依然として劣っている。
機械翻訳のための高効率かつ高性能なモデルDSLPを提案する。
論文 参考訳(メタデータ) (2021-10-14T16:36:12Z) - Unsupervised Bitext Mining and Translation via Self-trained Contextual
Embeddings [51.47607125262885]
不整合テキストから機械翻訳(MT)のための擬似並列コーパスを作成するための教師なし手法について述べる。
我々は多言語BERTを用いて、最寄りの検索のためのソースとターゲット文の埋め込みを作成し、自己学習によりモデルを適応する。
BUCC 2017 bitextマイニングタスクで並列文ペアを抽出し,F1スコアの最大24.5ポイント増加(絶対)を従来の教師なし手法と比較して観察することで,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-10-15T14:04:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。