論文の概要: Evaluating Language Translation Models by Playing Telephone
- arxiv url: http://arxiv.org/abs/2509.19611v1
- Date: Tue, 23 Sep 2025 22:01:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.622481
- Title: Evaluating Language Translation Models by Playing Telephone
- Title(参考訳): 電話による言語翻訳モデルの評価
- Authors: Syeda Jannatus Saba, Steven Skiena,
- Abstract要約: 異なる文書の長さとアプリケーションドメインの翻訳評価のためのトレーニングデータを生成する教師なし手法を提案する。
モデル回転と言語翻訳の両手法を用いて,機械的に生成したテキストに基づいて学習した評価システムの評価を行った。
- 参考スコア(独自算出の注目度): 5.02470728447561
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our ability to efficiently and accurately evaluate the quality of machine translation systems has been outrun by the effectiveness of current language models--which limits the potential for further improving these models on more challenging tasks like long-form and literary translation. We propose an unsupervised method to generate training data for translation evaluation over different document lengths and application domains by repeated rounds of translation between source and target languages. We evaluate evaluation systems trained on texts mechanically generated using both model rotation and language translation approaches, demonstrating improved performance over a popular translation evaluation system (xCOMET) on two different tasks: (i) scoring the quality of a given translation against a human reference and (ii) selecting which of two translations is generationally closer to an original source document.
- Abstract(参考訳): 機械翻訳システムの品質を効率的にかつ正確に評価する能力は、現在の言語モデルの有効性によって打ち消されてきました。
本稿では,ソース言語とターゲット言語間の反復的な翻訳ラウンドにより,異なる文書長とアプリケーションドメインに対する翻訳評価のためのトレーニングデータを生成する方法を提案する。
モデル回転法と言語翻訳法の両方を用いて機械的に生成したテキストに基づいて訓練された評価システムを評価し,2つの異なるタスクにおける一般的な翻訳評価システム(xCOMET)の性能向上を実証した。
一 翻訳の質を人事基準と比較して評価すること
(二)原典文書に両訳のどちらが世代ごとに近いかを選択すること。
関連論文リスト
- LLM-based Translation Inference with Iterative Bilingual Understanding [52.46978502902928]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - DUAL-REFLECT: Enhancing Large Language Models for Reflective Translation through Dual Learning Feedback Mechanisms [43.148203559785095]
自己回帰によって強化された大規模言語モデル(LLM)は機械翻訳において有望な性能を達成した。
既存の自己回帰法には効果的なフィードバック情報がなく、翻訳性能が制限されている。
本稿では,翻訳タスクの二重学習を利用して効果的なフィードバックを提供するREFLECTフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-11T13:10:39Z) - BiVert: Bidirectional Vocabulary Evaluation using Relations for Machine
Translation [4.651581292181871]
本稿では,テキストから翻訳の感覚距離を評価するための双方向意味に基づく評価手法を提案する。
このアプローチでは、包括的な多言語百科事典BabelNetを用いる。
Factual analysis is a strong correlation between the average evaluations generated by our method and the human evaluations across various machine translation system for English- German language pair。
論文 参考訳(メタデータ) (2024-03-06T08:02:21Z) - Advancing Translation Preference Modeling with RLHF: A Step Towards
Cost-Effective Solution [57.42593422091653]
人間のフィードバックによる強化学習の活用による翻訳品質の向上について検討する。
強力な言語能力を持つ報酬モデルは、翻訳品質の微妙な違いをより敏感に学習することができる。
論文 参考訳(メタデータ) (2024-02-18T09:51:49Z) - Lost in the Source Language: How Large Language Models Evaluate the Quality of Machine Translation [64.5862977630713]
本研究では,機械翻訳評価タスクにおいて,Large Language Models (LLM) がソースデータと参照データをどのように活用するかを検討する。
参照情報が評価精度を大幅に向上させるのに対して,意外なことに,ソース情報は時として非生産的である。
論文 参考訳(メタデータ) (2024-01-12T13:23:21Z) - Verdi: Quality Estimation and Error Detection for Bilingual [23.485380293716272]
Verdiはバイリンガルコーパスのための単語レベルおよび文レベルの後編集作業推定のための新しいフレームワークである。
バイリンガルコーパスの対称性を活用し,NMT予測器にモデルレベル二重学習を適用した。
我々の手法は競争の勝者を圧倒し、他の基準法よりも大きなマージンで上回る。
論文 参考訳(メタデータ) (2021-05-31T11:04:13Z) - Improving Cross-Lingual Reading Comprehension with Self-Training [62.73937175625953]
現在の最新モデルは、いくつかのベンチマークで人間のパフォーマンスを上回っています。
前作では、ゼロショットのクロスリンガル読解のための事前訓練された多言語モデルの能力を明らかにしている。
本稿では,ラベルのないデータを利用して性能を向上する。
論文 参考訳(メタデータ) (2021-05-08T08:04:30Z) - Computer Assisted Translation with Neural Quality Estimation and
Automatic Post-Editing [18.192546537421673]
本稿では,機械翻訳出力の品質推定と自動編集のためのエンドツーエンドのディープラーニングフレームワークを提案する。
我々のゴールは、誤り訂正の提案を提供することであり、解釈可能なモデルにより、人間の翻訳者の負担を軽減することである。
論文 参考訳(メタデータ) (2020-09-19T00:29:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。