論文の概要: PreQuEL: Quality Estimation of Machine Translation Outputs in Advance
- arxiv url: http://arxiv.org/abs/2205.09178v1
- Date: Wed, 18 May 2022 18:55:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-21 12:32:50.828849
- Title: PreQuEL: Quality Estimation of Machine Translation Outputs in Advance
- Title(参考訳): PreQuEL: 先進的な機械翻訳出力の品質評価
- Authors: Shachar Don-Yehiya, Leshem Choshen, Omri Abend
- Abstract要約: PreQuELシステムは、実際の翻訳とは無関係に、ある文がどの程度翻訳されるかを予測する。
タスクのベースラインモデルを開発し,その性能を解析する。
本手法は,品質評価タスクの性能向上にも有効であることを示す。
- 参考スコア(独自算出の注目度): 32.922128367314194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the task of PreQuEL, Pre-(Quality-Estimation) Learning. A PreQuEL
system predicts how well a given sentence will be translated, without recourse
to the actual translation, thus eschewing unnecessary resource allocation when
translation quality is bound to be low. PreQuEL can be defined relative to a
given MT system (e.g., some industry service) or generally relative to the
state-of-the-art. From a theoretical perspective, PreQuEL places the focus on
the source text, tracing properties, possibly linguistic features, that make a
sentence harder to machine translate.
We develop a baseline model for the task and analyze its performance. We also
develop a data augmentation method (from parallel corpora), that improves
results substantially. We show that this augmentation method can improve the
performance of the Quality-Estimation task as well. We investigate the
properties of the input text that our model is sensitive to, by testing it on
challenge sets and different languages. We conclude that it is aware of
syntactic and semantic distinctions, and correlates and even over-emphasizes
the importance of standard NLP features.
- Abstract(参考訳): 本稿では,PreQuEL,Pre-(Quality-Estimation) Learningを提案する。
PreQuELシステムは、実際の翻訳とは無関係に、与えられた文がどの程度翻訳されるかを予測し、翻訳品質が低い場合に不要なリソース割り当てを誘発する。
PreQuELは、特定のMTシステム(例えば、いくつかの産業サービス)に対して定義することができる。
理論的な観点から、PreQuELは、文章を機械翻訳しにくくする、ソーステキスト、トレースプロパティ、おそらく言語的特徴に焦点をあてる。
タスクのベースラインモデルを開発し,その性能を解析する。
また,データ拡張手法(並列コーパスから)を開発し,結果を大幅に改善する。
また,この拡張手法により,品質評価タスクの性能も向上することを示す。
本稿では,本モデルが感応する入力テキストの特性を,課題セットや異なる言語で検証することによって検討する。
本研究は, 構文的・意味的区別を意識し, 標準NLP機能の重要性を過度に強調し, 相関づけていると結論づける。
関連論文リスト
- Improving Machine Translation with Human Feedback: An Exploration of
Quality Estimation as a Reward Model [79.45416224840135]
報酬モデルにおける人間の嗜好の不十分なモデリングは、人間のフィードバックを活用して翻訳品質を向上させる上で大きな障害となる。
本研究では,QEモデルを報酬モデルとして活用し,フィードバックトレーニングにおける人間の嗜好を予測する可能性について検討する。
実験結果から,提案したQEに基づくフィードバックトレーニングは,様々な設定において一貫した,重要な改善を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-01-23T16:07:43Z) - Language Model is a Branch Predictor for Simultaneous Machine
Translation [73.82754138171587]
翻訳遅延を低減するため,SiMTタスクに分岐予測手法を組み込むことを提案する。
言語モデルを分岐予測器として利用し,潜在的な分岐方向を予測する。
実際のソース語が予測されたソース語から逸脱すると、実際のソース語を使用して出力を復号し、予測された出力を置き換える。
論文 参考訳(メタデータ) (2023-12-22T07:32:47Z) - Strategies for improving low resource speech to text translation relying
on pre-trained ASR models [59.90106959717875]
本稿では,テキスト翻訳(ST)における低音源音声の性能向上のための技術と知見について述べる。
本研究は,英語とポルトガル語,タマシェク語とフランス語の2つの言語対について,シミュレーションおよび実低資源設定について実験を行った。
論文 参考訳(メタデータ) (2023-05-31T21:58:07Z) - PAXQA: Generating Cross-lingual Question Answering Examples at Training
Scale [53.92008514395125]
PAXQA(クロスリンガル(x)QAのアノテーションの計画)は、クロスリンガルQAを2段階に分解する。
本稿では、並列ビットから制約されたエンティティを抽出する語彙制約機械翻訳の新たな利用法を提案する。
これらのデータセットに基づいて微調整されたモデルは、複数の抽出されたQAデータセット上で、先行合成データ生成モデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-04-24T15:46:26Z) - Competency-Aware Neural Machine Translation: Can Machine Translation
Know its Own Translation Quality? [61.866103154161884]
ニューラルマシン翻訳(NMT)は、意識せずに起こる失敗に対してしばしば批判される。
本稿では,従来のNMTを自己推定器で拡張することで,新たな能力認識型NMTを提案する。
提案手法は品質評価において優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2022-11-25T02:39:41Z) - Measuring Uncertainty in Translation Quality Evaluation (TQE) [62.997667081978825]
本研究は,翻訳テキストのサンプルサイズに応じて,信頼区間を精度良く推定する動機づけた研究を行う。
我々はベルヌーイ統計分布モデリング (BSDM) とモンテカルロサンプリング分析 (MCSA) の手法を適用した。
論文 参考訳(メタデータ) (2021-11-15T12:09:08Z) - Ensemble Fine-tuned mBERT for Translation Quality Estimation [0.0]
本稿では,WMT 2021 QE共有タスクの提出について論じる。
提案システムは多言語BERT(mBERT)に基づく回帰モデルのアンサンブルである。
ピアソンの相関に匹敵する性能を示し、いくつかの言語対に対してMAE/RMSEのベースラインシステムを破る。
論文 参考訳(メタデータ) (2021-09-08T20:13:06Z) - Translation Error Detection as Rationale Extraction [36.616561917049076]
本稿では,現在最先端の文レベルQEモデルの振る舞いについて検討し,翻訳誤りを検出するために実際に説明が利用できることを示す。
単語レベルQEのための新しい半教師付き手法を導入し、(ii)特徴属性の妥当性を評価するための新しいベンチマークとしてQEタスクを提案する。
論文 参考訳(メタデータ) (2021-08-27T09:35:14Z) - MDQE: A More Accurate Direct Pretraining for Machine Translation Quality
Estimation [4.416484585765028]
データ品質とトレーニングの目的の両方において,予測器と推定器の間にはまだギャップがある,と我々は主張する。
本稿では,QEタスクに対してより正確な事前学習を提供する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-24T09:48:37Z) - Verdi: Quality Estimation and Error Detection for Bilingual [23.485380293716272]
Verdiはバイリンガルコーパスのための単語レベルおよび文レベルの後編集作業推定のための新しいフレームワークである。
バイリンガルコーパスの対称性を活用し,NMT予測器にモデルレベル二重学習を適用した。
我々の手法は競争の勝者を圧倒し、他の基準法よりも大きなマージンで上回る。
論文 参考訳(メタデータ) (2021-05-31T11:04:13Z) - Revisiting Round-Trip Translation for Quality Estimation [0.0]
品質評価(QE)とは、人間が翻訳した参照を使わずに翻訳の質を自動的に評価するタスクである。
本稿では,RTTベースのQEにセマンティック埋め込みを適用する。
提案手法は,従来のWMT 2019品質評価基準よりも,人間の判断と高い相関性が得られる。
論文 参考訳(メタデータ) (2020-04-29T03:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。