論文の概要: Quality-Aware Decoding: Unifying Quality Estimation and Decoding
- arxiv url: http://arxiv.org/abs/2502.08561v2
- Date: Sun, 16 Feb 2025 13:43:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:02:27.988241
- Title: Quality-Aware Decoding: Unifying Quality Estimation and Decoding
- Title(参考訳): 品質意識のデコード:品質評価とデコードの統合
- Authors: Sai Koneru, Matthias Huck, Miriam Exel, Jan Niehues,
- Abstract要約: 本稿では,部分翻訳を確実に評価できる新しいトークンレベルQEモデルを提案する。
次に、品質認識復号のためのQEモデルを統合する復号戦略を提案する。
私たちのアプローチは文書翻訳タスクにおいて大きなメリットをもたらします。
- 参考スコア(独自算出の注目度): 12.843274390224853
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quality Estimation (QE) models for Neural Machine Translation (NMT) predict the quality of the hypothesis without having access to the reference. An emerging research direction in NMT involves the use of QE models, which have demonstrated high correlations with human judgment and can enhance translations through Quality-Aware Decoding. Although several approaches have been proposed based on sampling multiple candidate translations and picking the best candidate, none have integrated these models directly into the decoding process. In this paper, we address this by proposing a novel token-level QE model capable of reliably scoring partial translations. We build a uni-directional QE model for this, as decoder models are inherently trained and efficient on partial sequences. We then present a decoding strategy that integrates the QE model for Quality-Aware decoding and demonstrate that the translation quality improves when compared to the N-best list re-ranking with state-of-the-art QE models (up to $1.39$ XCOMET-XXL $\uparrow$). Finally, we show that our approach provides significant benefits in document translation tasks, where the quality of N-best lists is typically suboptimal. Code can be found at https://ai4lt.iar.kit.edu/english/projects\_kontextmt.php
- Abstract(参考訳): ニューラルネットワーク翻訳(NMT)の品質推定(QE)モデルは、参照にアクセスすることなく仮説の品質を予測する。
NMTにおける新たな研究方向は、人間の判断と高い相関を示し、品質認識復号による翻訳を強化するQEモデルの使用である。
複数の候補の翻訳をサンプリングし、最適な候補を選択することに基づいていくつかのアプローチが提案されているが、これらのモデルを直接デコードプロセスに統合することはなかった。
本稿では,部分的翻訳を確実に評価できる新しいトークンレベルQEモデルを提案する。
我々はこのために一方向QEモデルを構築し、デコーダモデルは本質的にトレーニングされ、部分シーケンス上で効率的である。
次に、品質認識復号のためのQEモデルを統合し、最先端QEモデル(最大1.39$ XCOMET-XXL $\uparrow$)で再ランクされたNベストリストと比較して、翻訳品質が向上することを示すデコーディング戦略を示す。
最後に,本手法は文書翻訳作業において,N-best リストの品質が最適でない場合において大きなメリットをもたらすことを示す。
コードはhttps://ai4lt.iar.kit.edu/english/projects\_kontextmt.phpにある。
関連論文リスト
- Q-NL Verifier: Leveraging Synthetic Data for Robust Knowledge Graph Question Answering [0.4499833362998489]
高品質な合成クエリとNL翻訳を生成する方法であるQ-NL Verifierを提案する。
我々のアプローチは、構造化クエリの意味論的に正確な自然言語パラフレーズを生成するために、大きな言語モデルに依存している。
LC-QuAD 2.0ベンチマークを用いて行った実験から、Q-NL Verifierは、他のモデルからのパラフレーズや、人間による翻訳によく対応していることがわかった。
論文 参考訳(メタデータ) (2025-03-03T10:28:24Z) - Alleviating Distribution Shift in Synthetic Data for Machine Translation Quality Estimation [55.73341401764367]
本稿では,合成QEデータの分散シフトを緩和する新しいフレームワークであるADSQEを紹介する。
ADSQEは、参照、すなわち翻訳監督信号を使用して、生成プロセスとアノテーションプロセスの両方をガイドする。
実験によると、ADSQEはCOMETのようなSOTAベースラインを教師なしと教師なしの両方で上回っている。
論文 参考訳(メタデータ) (2025-02-27T10:11:53Z) - When LLMs Struggle: Reference-less Translation Evaluation for Low-resource Languages [9.138590152838754]
セグメントレベルの品質評価(QE)は言語間理解の難しい課題である。
ゼロ/フェーショットシナリオにおいて,大規模言語モデル (LLM) を包括的に評価する。
この結果から,エンコーダを用いた微調整QEモデルでは,プロンプトベースアプローチの方が優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-01-08T12:54:05Z) - A Case Study on Context-Aware Neural Machine Translation with Multi-Task Learning [49.62044186504516]
文書レベルのニューラルネットワーク翻訳(DocNMT)では、コンテクストやソース文のエンコーディングにおいてマルチエンコーダアプローチが一般的である。
近年の研究では、コンテキストエンコーダがノイズを発生させ、コンテキストの選択に頑健なモデルを実現することが示されている。
本稿では、マルチタスク学習(MTL)を通してコンテキストエンコーディングを明示的にモデル化することで、コンテキスト選択に敏感なモデルを実現することにより、この観察をさらに検討する。
論文 参考訳(メタデータ) (2024-07-03T12:50:49Z) - Multi-Dimensional Machine Translation Evaluation: Model Evaluation and Resource for Korean [7.843029855730508]
1200文のMQM評価ベンチマークを英語と韓国語で作成する。
参照なしのセットアップはスタイルのディメンションにおいて、それよりも優れています。
全体として、RemBERTは最も有望なモデルとして現れます。
論文 参考訳(メタデータ) (2024-03-19T12:02:38Z) - Improving Machine Translation with Human Feedback: An Exploration of Quality Estimation as a Reward Model [75.66013048128302]
本研究では,QEモデルを報酬モデルとして活用し,フィードバックトレーニングにおける人間の嗜好を予測する可能性について検討する。
まず,QEに基づくフィードバックトレーニングにおいて,翻訳品質が低下する中で,報酬の増大として現れる過度な最適化問題を同定した。
問題に対処するために,ルールを用いて誤った翻訳を検知し,報酬のスコアにペナルティ項を割り当てる,シンプルで効果的な手法を採用する。
論文 参考訳(メタデータ) (2024-01-23T16:07:43Z) - Quality-Aware Translation Models: Efficient Generation and Quality Estimation in a Single Model [77.19693792957614]
そこで我々は,ニューラルネットワーク翻訳(NMT)モデルを用いて,その品質を学習し,その品質を推定する手法を提案する。
我々は、単一パスの復号化の効率性よりも、品質向上や品質改善のアプローチよりも優れた品質向上を得る。
論文 参考訳(メタデータ) (2023-10-10T15:33:51Z) - On Search Strategies for Document-Level Neural Machine Translation [51.359400776242786]
文書レベルのニューラルネットワーク変換(NMT)モデルは、ドキュメント全体にわたってより一貫性のある出力を生成する。
そこで本研究では,デコードにおける文脈認識翻訳モデルをどのように活用するか,という質問に答えることを目的としている。
論文 参考訳(メタデータ) (2023-06-08T11:30:43Z) - Quality-Aware Decoding for Neural Machine Translation [64.24934199944875]
ニューラルネットワーク翻訳(NMT)のための品質認識復号法を提案する。
参照フリーおよび参照ベースMT評価における最近のブレークスルーを,様々な推論手法を用いて活用する。
品質認識復号化は、最先端の自動測定値と人的評価値の両方で、MAPベースの復号化を一貫して上回ります。
論文 参考訳(メタデータ) (2022-05-02T15:26:28Z) - Source and Target Bidirectional Knowledge Distillation for End-to-end
Speech Translation [88.78138830698173]
外部テキストベースNMTモデルからのシーケンスレベルの知識蒸留(SeqKD)に注目した。
E2E-STモデルを訓練し、パラフレーズ転写を1つのデコーダで補助タスクとして予測する。
論文 参考訳(メタデータ) (2021-04-13T19:00:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。