論文の概要: Can QE-informed (Re)Translation lead to Error Correction?
- arxiv url: http://arxiv.org/abs/2511.13884v1
- Date: Mon, 17 Nov 2025 20:10:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.778729
- Title: Can QE-informed (Re)Translation lead to Error Correction?
- Title(参考訳): QEインフォームド(Re)翻訳は誤り訂正につながるか?
- Authors: Govardhan Padmanabhan,
- Abstract要約: 本稿では,WMT2025自動翻訳品質評価システムタスク3に提案される2つのアプローチについて述べる。
トレーニングフリーアプローチであるQEインフォームド・リトランスレーションについて検討し、同じトレーニングフリーパラダイム内で比較する。
提案された2つのアプローチは、それぞれ0.0201と-0.0108のデルタCOMETスコアを達成し、サブタスクのリーダーボードで勝利を収める最初のアプローチとなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The paper presents two approaches submitted to the WMT 2025 Automated Translation Quality Evaluation Systems Task 3 - Quality Estimation (QE)-informed Segment-level Error Correction. While jointly training QE systems with Automatic Post-Editing (APE) has shown improved performance for both tasks, APE systems are still known to overcorrect the output of Machine Translation (MT), leading to a degradation in performance. We investigate a simple training-free approach - QE-informed Retranslation, and compare it with another within the same training-free paradigm. Our winning approach selects the highest-quality translation from multiple candidates generated by different LLMs. The second approach, more akin to APE, instructs an LLM to replace error substrings as specified in the provided QE explanation(s). A conditional heuristic was employed to minimise the number of edits, with the aim of maximising the Gain-to-Edit ratio. The two proposed approaches achieved a Delta COMET score of 0.0201 and -0.0108, respectively, leading the first approach to achieve the winning position on the subtask leaderboard.
- Abstract(参考訳): 本稿では,WMT 2025自動翻訳品質評価システムタスク3に提案される2つのアプローチについて述べる。
自動後編集(APE)と共同でQEシステムのトレーニングを行った結果、両タスクのパフォーマンスは向上したが、APEシステムはまだMT(Machine Translation)の出力を過度に補正していることが知られており、性能の低下につながっている。
簡単なトレーニングフリーアプローチであるQEインフォームド・リトランスレーションについて検討し、同じトレーニングフリーパラダイム内で比較する。
我々の勝利のアプローチは、異なるLLMによって生成される複数の候補から高品質な翻訳を選択する。
第二のアプローチは APE に似ているが、与えられた QE 説明(s) で指定されたエラーサブストリングを置き換えるよう LLM に指示する。
編集数を最小化するために条件付きヒューリスティックが用いられ、ゲイン対編集比を最大化することを目的とした。
提案された2つのアプローチは、それぞれ0.0201と-0.0108のデルタCOMETスコアを達成し、サブタスクのリーダーボードで勝利を収める最初のアプローチとなった。
関連論文リスト
- Giving the Old a Fresh Spin: Quality Estimation-Assisted Constrained Decoding for Automatic Post-Editing [43.354917413940534]
復号処理中に単語レベルの品質推定情報を組み込むことで過度補正を緩和する手法を提案する。
英語-ドイツ語,英語-ヒンディー語,英語-マラティア語対に関する実験により,提案手法が大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-01-28T19:46:18Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - MQM-APE: Toward High-Quality Error Annotation Predictors with Automatic Post-Editing in LLM Translation Evaluators [53.91199933655421]
大規模言語モデル(LLM)は、機械翻訳(MT)の品質評価の裁判官として大きな可能性を秘めている。
非インパクト的なエラーをフィルタリングするアイデアに基づいて、ユニバーサルでトレーニング不要なフレームワークである$textbfMQM-APEを紹介します。
実験の結果,GEMBA-MQMに対する誤差の信頼性と品質の両方が一貫して改善されていることがわかった。
論文 参考訳(メタデータ) (2024-09-22T06:43:40Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Evaluating Generative Language Models in Information Extraction as Subjective Question Correction [49.729908337372436]
本稿では,新しい評価手法SQC-Scoreを提案する。
主観的質問訂正の原則に着想を得て,新しい評価手法SQC-Scoreを提案する。
3つの情報抽出タスクの結果から,SQC-Scoreは基準値よりもアノテータの方が好ましいことが示された。
論文 参考訳(メタデータ) (2024-04-04T15:36:53Z) - Improving Machine Translation with Human Feedback: An Exploration of Quality Estimation as a Reward Model [75.66013048128302]
本研究では,QEモデルを報酬モデルとして活用し,フィードバックトレーニングにおける人間の嗜好を予測する可能性について検討する。
まず,QEに基づくフィードバックトレーニングにおいて,翻訳品質が低下する中で,報酬の増大として現れる過度な最適化問題を同定した。
問題に対処するために,ルールを用いて誤った翻訳を検知し,報酬のスコアにペナルティ項を割り当てる,シンプルで効果的な手法を採用する。
論文 参考訳(メタデータ) (2024-01-23T16:07:43Z) - Generative Speech Recognition Error Correction with Large Language
Models and Task-Activating Prompting [32.70214938434769]
本稿では,大規模言語モデル(LLM)の音声認識後処理機能について検討する。
我々は、ゼロショットと少数ショットのインコンテキスト学習と、新しいタスクアクティベーション・プロンプト法という、異なるプロンプト方式を評価する。
凍結LDMを用いた文脈内学習でのみ再構成を行うことで、ドメインチューニングLMによる再構成と競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2023-09-27T13:36:03Z) - Ensemble Fine-tuned mBERT for Translation Quality Estimation [0.0]
本稿では,WMT 2021 QE共有タスクの提出について論じる。
提案システムは多言語BERT(mBERT)に基づく回帰モデルのアンサンブルである。
ピアソンの相関に匹敵する性能を示し、いくつかの言語対に対してMAE/RMSEのベースラインシステムを破る。
論文 参考訳(メタデータ) (2021-09-08T20:13:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。