論文の概要: LLM-based Translation Inference with Iterative Bilingual Understanding
- arxiv url: http://arxiv.org/abs/2410.12543v1
- Date: Wed, 16 Oct 2024 13:21:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:44:19.024014
- Title: LLM-based Translation Inference with Iterative Bilingual Understanding
- Title(参考訳): 反復的バイリンガル理解を用いたLLMに基づく翻訳推論
- Authors: Andong Chen, Kehai Chen, Yang Xiang, Xuefeng Bai, Muyun Yang, Tiejun Zhao, Min zhang,
- Abstract要約: 大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
- 参考スコア(独自算出の注目度): 45.00660558229326
- License:
- Abstract: The remarkable understanding and generation capabilities of large language models (LLMs) have greatly improved translation performance. However, incorrect understanding of the sentence to be translated can degrade translation quality. To address this issue, we proposed a novel Iterative Bilingual Understanding Translation (IBUT) method based on the cross-lingual capabilities of LLMs and the dual characteristics of translation tasks. The cross-lingual capability of LLMs enables the generation of contextual understanding for both the source and target languages separately. Furthermore, the dual characteristics allow IBUT to generate effective cross-lingual feedback, iteratively refining contextual understanding, thereby reducing errors and improving translation performance. Experimental results showed that the proposed IBUT outperforms several strong comparison methods, especially being generalized to multiple domains (e.g., news, commonsense, and cultural translation benchmarks).
- Abstract(参考訳): 大きな言語モデル(LLM)の顕著な理解と生成能力は、翻訳性能を大幅に改善した。
しかし、翻訳対象の文の誤理解は翻訳品質を低下させる可能性がある。
この問題に対処するために,LLMの言語横断能力と翻訳タスクの二重特性に基づく,新しいIBUT法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
さらに、この二重特性により、IBUTは効果的な言語間フィードバックを生成し、文脈的理解を反復的に洗練し、エラーを低減し、翻訳性能を向上させることができる。
実験の結果,提案したIBUTは,特に複数の領域(ニュース,コモンセンス,文化翻訳ベンチマークなど)に一般化されるなど,いくつかの強力な比較手法よりも優れていた。
関連論文リスト
- TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - DUAL-REFLECT: Enhancing Large Language Models for Reflective Translation through Dual Learning Feedback Mechanisms [43.148203559785095]
自己回帰によって強化された大規模言語モデル(LLM)は機械翻訳において有望な性能を達成した。
既存の自己回帰法には効果的なフィードバック情報がなく、翻訳性能が制限されている。
本稿では,翻訳タスクの二重学習を利用して効果的なフィードバックを提供するREFLECTフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-11T13:10:39Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - TEaR: Improving LLM-based Machine Translation with Systematic Self-Refinement [26.26493253161022]
大規模言語モデル(LLM)は機械翻訳(MT)において印象的な結果を得た
我々は,体系的LLMに基づく自己精製翻訳フレームワーク,textbfTEaRを紹介する。
論文 参考訳(メタデータ) (2024-02-26T07:58:12Z) - Aligning Translation-Specific Understanding to General Understanding in Large Language Models [32.0119328710383]
大規模言語モデル(LLM)は、複雑なテキストを理解する際、顕著な能力を示した。
本研究は,LLMにおける翻訳固有の理解と一般理解の相違を明らかにする。
本稿では, 難解な翻訳過程である DUAT (Difficult words Understanding Aligned Translation) を提案する。
論文 参考訳(メタデータ) (2024-01-10T11:03:53Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Eliciting the Translation Ability of Large Language Models via Multilingual Finetuning with Translation Instructions [68.01449013641532]
大規模事前学習言語モデル(LLM)は多言語翻訳において強力な能力を示している。
本稿では,多言語事前学習言語モデルであるXGLM-7Bを微調整して,多言語翻訳を行う方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T12:00:24Z) - Exploring Human-Like Translation Strategy with Large Language Models [93.49333173279508]
大規模言語モデル(LLM)は、一般的なシナリオにおいて印象的な機能を示している。
本研究は,マルチアスペクト・プロンプトと選択のためのMAPSフレームワークを提案する。
品質推定に基づく選択機構を用いて,ノイズや不ヘッピーな知識を抽出する。
論文 参考訳(メタデータ) (2023-05-06T19:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。