論文の概要: DRT-o1: Optimized Deep Reasoning Translation via Long Chain-of-Thought
- arxiv url: http://arxiv.org/abs/2412.17498v1
- Date: Mon, 23 Dec 2024 11:55:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 16:00:56.510794
- Title: DRT-o1: Optimized Deep Reasoning Translation via Long Chain-of-Thought
- Title(参考訳): DRT-o1:Long Chain-of-ThoughtによるDeep Reasoning翻訳の最適化
- Authors: Jiaan Wang, Fandong Meng, Yunlong Liang, Jie Zhou,
- Abstract要約: DRT-o1は、長いチェーン・オブ・シークレットの成功をニューラルマシン翻訳(MT)にもたらす試みである。
まず、既存の文献から模範文や比喩文を含む文を抽出し、その後、長い思考を通してこれらの文を翻訳する多エージェントフレームワークを開発する。
文献翻訳実験の結果, DRT-o1の有効性が示された。
- 参考スコア(独自算出の注目度): 89.48208612476068
- License:
- Abstract: Recently, O1-like models have emerged as representative examples, illustrating the effectiveness of long chain-of-thought (CoT) in reasoning tasks such as math and coding tasks. In this paper, we introduce DRT-o1, an attempt to bring the success of long CoT to neural machine translation (MT). Specifically, in view of the literature books that might involve similes and metaphors, translating these texts to a target language is very difficult in practice due to cultural differences. In such cases, literal translation often fails to convey the intended meaning effectively. Even for professional human translators, considerable thought must be given to preserving semantics throughout the translation process. To simulate LLMs' long thought ability in MT, we first mine sentences containing similes or metaphors from existing literature books, and then develop a multi-agent framework to translate these sentences via long thought. In the multi-agent framework, a translator is used to iteratively translate the source sentence under the suggestions provided by an advisor. To ensure the effectiveness of the long thoughts, an evaluator is also employed to judge whether the translation in the current round is better than the previous one or not. In this manner, we collect tens of thousands of long-thought MT data, which is used to train our DRT-o1. The experimental results on literature translation demonstrate the effectiveness of the DRT-o1. Using Qwen2.5-7B and Qwen2.5-14B as the backbones, the improvement brought by DRT-o1 achieves 7.33~8.26 BLEU and 1.66~3.36 CometScore. Besides, DRT-o1-7B can outperform QwQ-32B-Preview by 7.82 BLEU and 1.46 CometScore, showing its effectiveness. The project is available at https://github.com/krystalan/DRT-o1
- Abstract(参考訳): 近年、O1のようなモデルが代表的な例として登場し、数学やコーディングタスクといったタスクの推論における長いチェーン・オブ・シント(CoT)の有効性が指摘されている。
本稿では,長いCoTをニューラルネットワーク翻訳(MT)に導入する試みであるDRT-o1を紹介する。
具体的には、シミュレートや比喩を含む文学書の観点からは、文化的な違いから、実際にこれらの文章を対象言語に翻訳することは極めて困難である。
このような場合、リテラル翻訳は意図した意味を効果的に伝えるのに失敗することが多い。
プロの人間翻訳者であっても、翻訳過程を通して意味を保存するためには相当な思考が必要である。
MTにおけるLLMの長年の思考能力をシミュレーションするために,我々はまず,既存の文献から模擬文やメタファーを含む文を抽出し,その文を長い思考で翻訳するマルチエージェント・フレームワークを開発した。
マルチエージェントフレームワークにおいて、インシデントが提供する提案の下で、ソース文を反復的に翻訳するためにトランスレータを使用する。
長い思考の有効性を確保するために、現在のラウンドの翻訳が前のラウンドより優れているか否かを判断するために評価器を用いる。
このようにして、DRT-o1のトレーニングに使用される、何万もの長大なMTデータを収集する。
文献翻訳実験の結果, DRT-o1の有効性が示された。
Qwen2.5-7BとQwen2.5-14Bをバックボーンとし、DRT-o1による改良は7.33~8.26BLEUと1.66~3.36 CometScoreを達成した。
さらに、DRT-o1-7BはQwQ-32B-Previewを7.82BLEUと1.46 CometScoreで上回り、その効果を示した。
プロジェクトはhttps://github.com/krystalan/DRT-o1で公開されている。
関連論文リスト
- (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [52.18246881218829]
本稿では,大言語モデル(LLM)をベースとした多エージェントフレームワークを,TransAgentsという企業として実装した。
本システムの有効性を評価するため,モノリンガル・ヒューマン・プライス(MHP)とバイリンガル・LLM・プライス(BLP)の2つの革新的な評価戦略を提案する。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Mitigating Hallucinations and Off-target Machine Translation with
Source-Contrastive and Language-Contrastive Decoding [53.84948040596055]
修正された復号化目標を用いて、障害ケースを緩和する2つの関連手法を提案する。
大規模多言語モデルM2M-100 (418M) とSMaLL-100の実験は、これらの手法が幻覚やターゲット外の翻訳を抑制することを示した。
論文 参考訳(メタデータ) (2023-09-13T17:15:27Z) - Extrinsic Evaluation of Machine Translation Metrics [78.75776477562087]
文レベルでの翻訳と翻訳の良さを区別する上で,自動尺度が信頼性が高いかどうかは不明である。
我々は,3つの下流言語タスクにおいて,最も広く使用されているMTメトリクス(chrF,COMET,BERTScoreなど)のセグメントレベル性能を評価する。
実験の結果,各指標は下流結果の外部評価と負の相関を示すことがわかった。
論文 参考訳(メタデータ) (2022-12-20T14:39:58Z) - The RoyalFlush System for the WMT 2022 Efficiency Task [11.00644143928471]
本稿では、WMT 2022翻訳効率タスクに対するRoyal Neural Machine Translation Systemの提出について述べる。
一般的に使われている自己回帰翻訳システムとは異なり、我々はハイブリッド回帰翻訳と呼ばれる2段階の翻訳パラダイムを採用した。
われわれの最速のシステムはGPUレイテンシ設定で6k+ワード/秒に達し、昨年の勝者より約3.1倍速いと見積もられている。
論文 参考訳(メタデータ) (2022-12-03T05:36:10Z) - Hybrid-Regressive Neural Machine Translation [11.634586560239404]
自己回帰的・非自己回帰的翻訳パラダイムの長所をうまく組み合わせる方法について検討する。
ハイブリッド回帰翻訳(HRT)と呼ばれる新しい2段階翻訳プロトタイプを提案する。
HRTは、WMT En-Deタスクで最先端のBLEUスコア28.49を達成し、バッチサイズやデバイスに関わらず、ATよりも少なくとも1.5倍高速である。
論文 参考訳(メタデータ) (2022-10-19T09:26:15Z) - BitextEdit: Automatic Bitext Editing for Improved Low-Resource Machine
Translation [53.55009917938002]
自動編集によりマイニングしたビットクストを改良することを提案する。
提案手法は,5つの低リソース言語ペアと10の翻訳方向に対して,最大8個のBLEUポイントでCCMatrixマイニングビットクストの品質を向上することを示す。
論文 参考訳(メタデータ) (2021-11-12T16:00:39Z) - Non-Autoregressive Translation with Layer-Wise Prediction and Deep
Supervision [33.04082398101807]
Transformerのような既存のニューラルネットワーク翻訳モデルは高い性能を達成するが、単語を1つずつデコードする。
最近の非自己回帰翻訳モデルは推論を高速化するが、その品質は依然として劣っている。
機械翻訳のための高効率かつ高性能なモデルDSLPを提案する。
論文 参考訳(メタデータ) (2021-10-14T16:36:12Z) - Improving Simultaneous Translation by Incorporating Pseudo-References
with Fewer Reorderings [24.997435410680378]
本稿では,既存の全文コーパスのターゲット側を同時翻訳に書き換える手法を提案する。
Zh->En と Ja->En の同時翻訳実験は、これらの擬似参照の追加により大幅に改善された。
論文 参考訳(メタデータ) (2020-10-21T19:03:06Z) - Unsupervised Bitext Mining and Translation via Self-trained Contextual
Embeddings [51.47607125262885]
不整合テキストから機械翻訳(MT)のための擬似並列コーパスを作成するための教師なし手法について述べる。
我々は多言語BERTを用いて、最寄りの検索のためのソースとターゲット文の埋め込みを作成し、自己学習によりモデルを適応する。
BUCC 2017 bitextマイニングタスクで並列文ペアを抽出し,F1スコアの最大24.5ポイント増加(絶対)を従来の教師なし手法と比較して観察することで,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-10-15T14:04:03Z) - Simulated Multiple Reference Training Improves Low-Resource Machine
Translation [22.404646693366054]
我々は,可能翻訳の全空間を近似する新しいMTトレーニング手法であるSMRT(Simulated Multiple Reference Training)を導入する。
SMRTの低リソース環境での英語翻訳における有効性を示し,1.2から7.0BLEUに改善した。
論文 参考訳(メタデータ) (2020-04-30T00:11:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。