論文の概要: DRT-o1: Optimized Deep Reasoning Translation via Long Chain-of-Thought
- arxiv url: http://arxiv.org/abs/2412.17498v1
- Date: Mon, 23 Dec 2024 11:55:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 16:00:56.510794
- Title: DRT-o1: Optimized Deep Reasoning Translation via Long Chain-of-Thought
- Title(参考訳): DRT-o1:Long Chain-of-ThoughtによるDeep Reasoning翻訳の最適化
- Authors: Jiaan Wang, Fandong Meng, Yunlong Liang, Jie Zhou,
- Abstract要約: DRT-o1は、長いチェーン・オブ・シークレットの成功をニューラルマシン翻訳(MT)にもたらす試みである。
まず、既存の文献から模範文や比喩文を含む文を抽出し、その後、長い思考を通してこれらの文を翻訳する多エージェントフレームワークを開発する。
文献翻訳実験の結果, DRT-o1の有効性が示された。
- 参考スコア(独自算出の注目度): 89.48208612476068
- License:
- Abstract: Recently, O1-like models have emerged as representative examples, illustrating the effectiveness of long chain-of-thought (CoT) in reasoning tasks such as math and coding tasks. In this paper, we introduce DRT-o1, an attempt to bring the success of long CoT to neural machine translation (MT). Specifically, in view of the literature books that might involve similes and metaphors, translating these texts to a target language is very difficult in practice due to cultural differences. In such cases, literal translation often fails to convey the intended meaning effectively. Even for professional human translators, considerable thought must be given to preserving semantics throughout the translation process. To simulate LLMs' long thought ability in MT, we first mine sentences containing similes or metaphors from existing literature books, and then develop a multi-agent framework to translate these sentences via long thought. In the multi-agent framework, a translator is used to iteratively translate the source sentence under the suggestions provided by an advisor. To ensure the effectiveness of the long thoughts, an evaluator is also employed to judge whether the translation in the current round is better than the previous one or not. In this manner, we collect tens of thousands of long-thought MT data, which is used to train our DRT-o1. The experimental results on literature translation demonstrate the effectiveness of the DRT-o1. Using Qwen2.5-7B and Qwen2.5-14B as the backbones, the improvement brought by DRT-o1 achieves 7.33~8.26 BLEU and 1.66~3.36 CometScore. Besides, DRT-o1-7B can outperform QwQ-32B-Preview by 7.82 BLEU and 1.46 CometScore, showing its effectiveness. The project is available at https://github.com/krystalan/DRT-o1
- Abstract(参考訳): 近年、O1のようなモデルが代表的な例として登場し、数学やコーディングタスクといったタスクの推論における長いチェーン・オブ・シント(CoT)の有効性が指摘されている。
本稿では,長いCoTをニューラルネットワーク翻訳(MT)に導入する試みであるDRT-o1を紹介する。
具体的には、シミュレートや比喩を含む文学書の観点からは、文化的な違いから、実際にこれらの文章を対象言語に翻訳することは極めて困難である。
このような場合、リテラル翻訳は意図した意味を効果的に伝えるのに失敗することが多い。
プロの人間翻訳者であっても、翻訳過程を通して意味を保存するためには相当な思考が必要である。
MTにおけるLLMの長年の思考能力をシミュレーションするために,我々はまず,既存の文献から模擬文やメタファーを含む文を抽出し,その文を長い思考で翻訳するマルチエージェント・フレームワークを開発した。
マルチエージェントフレームワークにおいて、インシデントが提供する提案の下で、ソース文を反復的に翻訳するためにトランスレータを使用する。
長い思考の有効性を確保するために、現在のラウンドの翻訳が前のラウンドより優れているか否かを判断するために評価器を用いる。
このようにして、DRT-o1のトレーニングに使用される、何万もの長大なMTデータを収集する。
文献翻訳実験の結果, DRT-o1の有効性が示された。
Qwen2.5-7BとQwen2.5-14Bをバックボーンとし、DRT-o1による改良は7.33~8.26BLEUと1.66~3.36 CometScoreを達成した。
さらに、DRT-o1-7BはQwQ-32B-Previewを7.82BLEUと1.46 CometScoreで上回り、その効果を示した。
プロジェクトはhttps://github.com/krystalan/DRT-o1で公開されている。
関連論文リスト
- TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Agent-SiMT: Agent-assisted Simultaneous Machine Translation with Large Language Models [38.49925017512848]
同時機械翻訳(SiMT)は、原文を読みながらターゲット翻訳を生成する。
既存の SiMT メソッドは一般的に、ポリシーを同時に決定し、翻訳を生成する、従来の Transformer アーキテクチャを採用している。
本稿では,Large Language Models(LLM)と従来のSiMTメソッドの長所を組み合わせたフレームワークであるAgent-SiMTを紹介する。
論文 参考訳(メタデータ) (2024-06-11T03:09:20Z) - (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [52.18246881218829]
本稿では,大言語モデル(LLM)をベースとした多エージェントフレームワークを,TransAgentsという企業として実装した。
本システムの有効性を評価するため,モノリンガル・ヒューマン・プライス(MHP)とバイリンガル・LLM・プライス(BLP)の2つの革新的な評価戦略を提案する。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Contextual Refinement of Translations: Large Language Models for Sentence and Document-Level Post-Editing [12.843274390224853]
大規模言語モデル(LLM)は、様々な自然言語処理タスクでかなりの成功を収めている。
ニューラルネットワーク翻訳における最先端性能は,まだ達成できていない。
直接翻訳者ではなく,自動編集者 (APE) としてLLMを適用することを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:22:15Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - TIM: Teaching Large Language Models to Translate with Comparison [78.66926087162672]
本稿では,LLMに翻訳学習を教えるために,サンプルを用いた新しいフレームワークを提案する。
我々のアプローチは、正しい翻訳例と間違った翻訳例をモデルに提示し、好みの損失を使ってモデルの学習をガイドすることである。
本研究は,翻訳タスクのための微調整LDMの新しい視点を提供し,高品質な翻訳を実現するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2023-07-10T08:15:40Z) - Do GPTs Produce Less Literal Translations? [20.095646048167612]
大規模言語モデル(LLM)は多くの自然言語生成や理解タスクに対処できる汎用言語モデルとして登場した。
GPTからの英語(E-X)からの翻訳はリテラルが低い傾向にあり、機械翻訳の品質指標に類似またはより良いスコアが示されることがわかりました。
論文 参考訳(メタデータ) (2023-05-26T10:38:31Z) - Chain-of-Dictionary Prompting Elicits Translation in Large Language Models [100.47154959254937]
大規模言語モデル(LLM)は多言語ニューラルマシン翻訳(MNMT)において驚くほど優れた性能を示した
入力単語のサブセットに対する多言語辞書の連鎖による事前知識でLLMを拡張して翻訳能力を引き出す新しい方法であるCoDを提案する。
論文 参考訳(メタデータ) (2023-05-11T05:19:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。