論文の概要: Combining the Best of Both Worlds: A Method for Hybrid NMT and LLM Translation
- arxiv url: http://arxiv.org/abs/2505.13554v1
- Date: Mon, 19 May 2025 06:50:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.436865
- Title: Combining the Best of Both Worlds: A Method for Hybrid NMT and LLM Translation
- Title(参考訳): 両世界のベストを兼ね備えたNMTとLLMのハイブリッド翻訳手法
- Authors: Zhanglin Wu, Daimeng Wei, Xiaoyu Chen, Hengchao Shang, Jiaxin Guo, Zongyao Li, Yuanchang Luo, Jinlong Yang, Zhiqiang Rao, Hao Yang,
- Abstract要約: 大規模言語モデル(LLM)は、機械翻訳(MT)など、様々な下流タスクにおいて有望なパフォーマンスを示す。
しかし、翻訳にLLMを使うことは、高い計算コストとかなりのレイテンシに悩まされる。
本稿では,ソース文の特徴を生かした,新規で素直な判定手法を提案する。
- 参考スコア(独自算出の注目度): 12.59407158733001
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language model (LLM) shows promising performances in a variety of downstream tasks, such as machine translation (MT). However, using LLMs for translation suffers from high computational costs and significant latency. Based on our evaluation, in most cases, translations using LLMs are comparable to that generated by neural machine translation (NMT) systems. Only in particular scenarios, LLM and NMT models show respective advantages. As a result, integrating NMT and LLM for translation and using LLM only when necessary seems to be a sound solution. A scheduling policy that optimizes translation result while ensuring fast speed and as little LLM usage as possible is thereby required. We compare several scheduling policies and propose a novel and straightforward decider that leverages source sentence features. We conduct extensive experiments on multilingual test sets and the result shows that we can achieve optimal translation performance with minimal LLM usage, demonstrating effectiveness of our decider.
- Abstract(参考訳): 大規模言語モデル(LLM)は、機械翻訳(MT)など、さまざまな下流タスクにおいて有望なパフォーマンスを示す。
しかし、翻訳にLLMを使うことは、高い計算コストとかなりのレイテンシに悩まされる。
我々の評価に基づき、ほとんどの場合、LLMを用いた翻訳はニューラルマシン翻訳(NMT)システムに匹敵するものである。
特定のシナリオにおいてのみ、LLMとNMTモデルはそれぞれの利点を示す。
その結果,NMT と LLM を統合して翻訳し,必要な場合にのみ LLM を用いることは,健全な解法であると考えられた。
これにより、高速かつLLM使用の少ない翻訳結果を最適化するスケジューリングポリシーが要求される。
提案手法は,複数のスケジューリングポリシを比較し,ソース文の特徴を生かした,新規で素直な決定器を提案する。
我々は多言語テストセットに関する広範な実験を行い、その結果、最小限のLLM使用率で最適な翻訳性能を達成できることを示し、決定器の有効性を実証した。
関連論文リスト
- Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - Speech Translation with Large Language Models: An Industrial Practice [64.5419534101104]
LLM-STは,事前学習型大言語モデル(LLM)に基づいて構築された,新規で効果的な音声翻訳モデルである。
大規模言語モデル(LLM)を音声エンコーダと統合し、マルチタスクの命令チューニングを利用することで、LLM-STは正確なタイムスタンプと翻訳を生成することができる。
英語と中国語のデータセットの厳密な実験を通じて,LLM-STの異常な性能を示す。
論文 参考訳(メタデータ) (2023-12-21T05:32:49Z) - Simul-LLM: A Framework for Exploring High-Quality Simultaneous Translation with Large Language Models [4.873927154453253]
数十億のパラメータを持ち、大量のデータに事前訓練された大規模言語モデル(LLM)は、さまざまな下流自然言語処理タスクにおいて、最先端の性能に近いかそれ以上の性能を持つようになった。
Simul-LLMは、SimulMTにフォーカスしたLLMのためのオープンソースのファインチューニングおよび評価パイプライン開発フレームワークである。
論文 参考訳(メタデータ) (2023-12-07T20:42:05Z) - Direct Preference Optimization for Neural Machine Translation with Minimum Bayes Risk Decoding [15.309135455863753]
本稿では,最近開発された強化学習手法である直接選好最適化(DPO)を用いて,追加計算なしで多言語大言語モデルを微調整する方法について述べる。
本手法では, 単言語による微調整のみを用い, DPOのないMLLMと比較して, 複数のNMTテストセットの性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-11-14T18:43:51Z) - Multilingual Machine Translation with Large Language Models: Empirical Results and Analysis [103.89753784762445]
大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示した。
本稿では, MMT における LLM の利点と課題を体系的に検討する。
また,ChatGPTとGPT-4を含む8つのLLMを徹底的に評価した。
論文 参考訳(メタデータ) (2023-04-10T15:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。