論文の概要: Aligning Translation-Specific Understanding to General Understanding in Large Language Models
- arxiv url: http://arxiv.org/abs/2401.05072v2
- Date: Mon, 21 Oct 2024 15:19:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:13:51.453074
- Title: Aligning Translation-Specific Understanding to General Understanding in Large Language Models
- Title(参考訳): 翻訳のアライメント-大規模言語モデルにおける一般的な理解への特別な理解
- Authors: Yichong Huang, Baohang Li, Xiaocheng Feng, Chengpeng Fu, Wenshuai Huo, Ting Liu, Bing Qin,
- Abstract要約: 大規模言語モデル(LLM)は、複雑なテキストを理解する際、顕著な能力を示した。
本研究は,LLMにおける翻訳固有の理解と一般理解の相違を明らかにする。
本稿では, 難解な翻訳過程である DUAT (Difficult words Understanding Aligned Translation) を提案する。
- 参考スコア(独自算出の注目度): 32.0119328710383
- License:
- Abstract: Large Language models (LLMs) have exhibited remarkable abilities in understanding complex texts, offering a promising path towards human-like translation performance. However, this study reveals the misalignment between the translation-specific understanding and the general understanding inside LLMs. This understanding misalignment leads to LLMs mistakenly or literally translating some complicated concepts that they accurately comprehend in the general scenarios (e.g., QA). To align the translation-specific understanding to the general one, we propose a novel translation process, DUAT (Difficult words Understanding Aligned Translation), explicitly incorporating the general understanding on the complicated content incurring inconsistent understanding to guide the translation. Specifically, DUAT performs cross-lingual interpretation for the difficult-to-translate words and enhances the translation with the generated interpretations. Furthermore, we reframe the external tools to improve DUAT in detecting difficult words and generating helpful interpretations. We conduct experiments on the self-constructed benchmark Challenge-WMT, consisting of samples that are prone to mistranslation. Human evaluation results on high-resource and low-resource language pairs indicate that DUAT significantly facilitates the understanding alignment, which improves the translation quality (up to +3.85 COMET) and reduces the literality of the translation by -25% to -51%.
- Abstract(参考訳): 大規模言語モデル(LLM)は、複雑なテキストを理解する際、顕著な能力を示し、人間のような翻訳性能への道のりを提供する。
しかし,本研究では,翻訳固有の理解とLLM内部の一般的な理解の相違を明らかにした。
この理解ミスアライメントは、LLMが一般的なシナリオ(例えばQA)で正確に理解する複雑な概念を誤ってあるいは文字通り翻訳することにつながる。
そこで本研究では,翻訳固有の理解を一般の理解に合わせるために,難解な翻訳過程であるDUAT(Difficult words Understanding Aligned Translation)を提案する。
特に、DUATは、翻訳が困難な単語に対して言語間の解釈を行い、生成した解釈による翻訳を強化する。
さらに、難解な単語を検知し、有用な解釈を生成するために、外部ツールを再構成してDUATを改善する。
自己構築型ベンチマークであるChallenge-WMTでは,誤訳を起こしやすいサンプルを用いて実験を行った。
高リソースと低リソースの言語ペアに対する人間の評価結果は、DUATが理解アライメントを著しく促進し、翻訳品質(+3.85 COMET)を向上し、翻訳のリテラリティを-25%から-51%削減することを示している。
関連論文リスト
- LLM-based Translation Inference with Iterative Bilingual Understanding [45.00660558229326]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - xTower: A Multilingual LLM for Explaining and Correcting Translation Errors [22.376508000237042]
xTower は TowerBase 上に構築されたオープンな大規模言語モデル (LLM) である。
翻訳品質の大幅な向上を示すために, 様々な実験装置を用いてxTowerを検証した。
論文 参考訳(メタデータ) (2024-06-27T18:51:46Z) - Efficiently Exploring Large Language Models for Document-Level Machine Translation with In-context Learning [38.89119606657543]
文レベルの翻訳とは対照的に、文脈内学習に基づく大規模言語モデル(LLM)による文書レベルの翻訳(DOCMT)は2つの大きな課題に直面している。
本研究では,文脈認識型プロンプト法(CAP)を提案する。
様々なDOCMTタスクに対して広範な実験を行い,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-06-11T09:11:17Z) - Understanding and Addressing the Under-Translation Problem from the Perspective of Decoding Objective [72.83966378613238]
最新のニューラル・マシン・トランスレーション(NMT)システムでは、アンダー・トランスレーションとオーバー・トランスレーションの2つの課題が残っている。
我々は,NMTにおけるアンダートランスレーションの根本原因を詳細に分析し,デコード目的の観点から解説する。
本研究は,低翻訳の検知器としてEOS(End Of Sentence)予測の信頼性を活用し,低翻訳のリスクが高い候補を罰する信頼性に基づくペナルティを強化することを提案する。
論文 参考訳(メタデータ) (2024-05-29T09:25:49Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - Crossing the Threshold: Idiomatic Machine Translation through Retrieval
Augmentation and Loss Weighting [66.02718577386426]
慣用的な翻訳と関連する問題を簡易に評価する。
我々は,変圧器をベースとした機械翻訳モデルが慣用的な翻訳に対して正しくデフォルトとなる点を明らかにするための合成実験を行った。
自然慣用句の翻訳を改善するために, 単純かつ効果的な2つの手法を導入する。
論文 参考訳(メタデータ) (2023-10-10T23:47:25Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Large language models effectively leverage document-level context for
literary translation, but critical errors persist [32.54546652197316]
大規模言語モデル(LLM)は、幅広い文レベルの翻訳データセット上での最先端技術と競合する。
我々は,Gpt-3.5 (text-davinci-003) LLM) を用いて文節全体を翻訳し,高品質な翻訳を行うという厳密な評価を通して示す。
論文 参考訳(メタデータ) (2023-04-06T17:27:45Z) - ParroT: Translating during Chat using Large Language Models tuned with
Human Translation and Feedback [90.20262941911027]
ParroTはチャット中の翻訳機能を強化し、規制するフレームワークである。
具体的には、ParroTは、翻訳データを命令フォロースタイルに書き換える。
本稿では,ParroTモデルを微調整するための3つの命令タイプを提案する。
論文 参考訳(メタデータ) (2023-04-05T13:12:00Z) - A Bayesian approach to translators' reliability assessment [0.0]
我々は、複雑なシステムの観点から、翻訳品質評価プロセスを複雑なプロセスとみなす。
TQAプロセスに関わる特徴,すなわち翻訳難易度,翻訳生成と品質評価に関わる翻訳者の特性をパラメータ化する2つのベイズモデルを構築した。
専門家翻訳者であっても、レビュアーの信頼性は当然と言えないことを示す。
論文 参考訳(メタデータ) (2022-03-14T14:29:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。