論文の概要: Why Neural Machine Translation Prefers Empty Outputs
- arxiv url: http://arxiv.org/abs/2012.13454v1
- Date: Thu, 24 Dec 2020 22:25:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 08:57:23.153613
- Title: Why Neural Machine Translation Prefers Empty Outputs
- Title(参考訳): ニューラルネットワークの翻訳が空の出力を好む理由
- Authors: Xing Shi, Yijun Xiao, Kevin Knight
- Abstract要約: ニューラルマシン翻訳(NMT)システムが空の翻訳に高い確率を割り当てる理由を調査します。
ラベルの平滑化は、正確な翻訳の信頼性を低下させる。
NMTシステムは、長さに関係なく、同じ高周波のEoSワードを使用して全てのターゲット文を終了する。
- 参考スコア(独自算出の注目度): 22.782758649908647
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate why neural machine translation (NMT) systems assign high
probability to empty translations. We find two explanations. First, label
smoothing makes correct-length translations less confident, making it easier
for the empty translation to finally outscore them. Second, NMT systems use the
same, high-frequency EoS word to end all target sentences, regardless of
length. This creates an implicit smoothing that increases zero-length
translations. Using different EoS types in target sentences of different
lengths exposes and eliminates this implicit smoothing.
- Abstract(参考訳): ニューラルネットワーク翻訳(NMT)システムがなぜ空の翻訳に高い確率を割り当てるのかを考察する。
説明は2つあります
まず、ラベルの平滑化により、正しい長さの翻訳の信頼性が低下し、空の翻訳が最終的にそれらを上回りやすくする。
第二に、NMTシステムは、長さに関係なく、同じ高周波EoSワードを使用して全てのターゲット文を終了する。
これにより暗黙の平滑化が生じ、ゼロ長の翻訳が増加する。
異なる長さのターゲット文で異なるEoS型を使用することで、この暗黙の平滑化を排除できる。
関連論文リスト
- Simplifying Translations for Children: Iterative Simplification Considering Age of Acquisition with LLMs [19.023628411128406]
本稿では,翻訳における単語をAoA(High Age of Acquisitions)に置き換える手法を提案する。
その結果,提案手法は高AoA語を低AoA語に効果的に置き換えることを示した。
論文 参考訳(メタデータ) (2024-08-08T04:57:36Z) - Crossing the Threshold: Idiomatic Machine Translation through Retrieval
Augmentation and Loss Weighting [66.02718577386426]
慣用的な翻訳と関連する問題を簡易に評価する。
我々は,変圧器をベースとした機械翻訳モデルが慣用的な翻訳に対して正しくデフォルトとなる点を明らかにするための合成実験を行った。
自然慣用句の翻訳を改善するために, 単純かつ効果的な2つの手法を導入する。
論文 参考訳(メタデータ) (2023-10-10T23:47:25Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Extract and Attend: Improving Entity Translation in Neural Machine
Translation [141.7840980565706]
NMTにおけるエンティティ翻訳を強化するための抽出・アテンド手法を提案する。
提案手法は,エンティティの翻訳精度と全体的な翻訳品質の向上に有効である。
論文 参考訳(メタデータ) (2023-06-04T03:05:25Z) - Improving Cascaded Unsupervised Speech Translation with Denoising
Back-translation [70.33052952571884]
我々は,任意のペアデータを活用することなく,カスケード音声翻訳システムを構築することを提案する。
教師なしのシステムをトレーニングし、CoVoST 2 と CVSS で結果を評価するために、完全にペア化されたデータを使用します。
論文 参考訳(メタデータ) (2023-05-12T13:07:51Z) - Towards Debiasing Translation Artifacts [15.991970288297443]
確立されたバイアス除去手法を拡張して,翻訳文の削減のための新しい手法を提案する。
我々は、反復的ヌル空間投影(INLP)アルゴリズムを用いて、デバイアス前後の分類精度を計測することにより、文レベルと単語レベルの両方で翻訳文が削減されることを示す。
我々の知る限りでは、これは潜伏埋め込み空間で表現される翻訳語をデビアスする最初の研究である。
論文 参考訳(メタデータ) (2022-05-16T21:46:51Z) - Anticipation-free Training for Simultaneous Translation [70.85761141178597]
同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T16:29:37Z) - Monotonic Simultaneous Translation with Chunk-wise Reordering and
Refinement [38.89496608319392]
本稿では,全文翻訳コーパスの目的側を並べ替え,洗練するアルゴリズムを提案する。
ソースとターゲットの文間の単語/フレーズは、単語アライメントと非自己回帰型ニューラルマシン翻訳を用いて、主に単調に配列される。
提案手法はBLEUのスコアを改良し,結果の翻訳により文の単調性が向上する。
論文 参考訳(メタデータ) (2021-10-18T22:51:21Z) - Phrase-level Active Learning for Neural Machine Translation [107.28450614074002]
ドメイン内データの翻訳に所定の予算を費やすことのできる,アクティブな学習環境を提案する。
我々は、人間の翻訳者へのルーティングのために、新しいドメインの未ラベルデータから全文と個々の句を選択する。
ドイツ語と英語の翻訳タスクでは,不確実性に基づく文選択法に対して,能動的学習手法が一貫した改善を実現している。
論文 参考訳(メタデータ) (2021-06-21T19:20:42Z) - Sentence Concatenation Approach to Data Augmentation for Neural Machine
Translation [22.316934668106526]
本研究では,長文処理のための簡易データ拡張手法を提案する。
与えられた並列コーパスのみをトレーニングデータとして使用し、2つの文を連結して長文を生成する。
提案手法により, 逆翻訳と組み合わせた翻訳品質がさらに向上した。
論文 参考訳(メタデータ) (2021-04-17T08:04:42Z) - Improving Simultaneous Translation by Incorporating Pseudo-References
with Fewer Reorderings [24.997435410680378]
本稿では,既存の全文コーパスのターゲット側を同時翻訳に書き換える手法を提案する。
Zh->En と Ja->En の同時翻訳実験は、これらの擬似参照の追加により大幅に改善された。
論文 参考訳(メタデータ) (2020-10-21T19:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。