論文の概要: Negative Lexical Constraints in Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2308.03601v1
- Date: Mon, 7 Aug 2023 14:04:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 13:22:49.386782
- Title: Negative Lexical Constraints in Neural Machine Translation
- Title(参考訳): ニューラルマシン翻訳における負の語彙制約
- Authors: Josef Jon, Du\v{s}an Vari\v{s}, Michal Nov\'ak, Jo\~ao Paulo Aires and
Ond\v{r}ej Bojar
- Abstract要約: 負の語彙制約は、神経翻訳モデルによって生成された翻訳における特定の単語や表現を禁止するために用いられる。
復号処理やトレーニングデータの変更に基づいて,様々な手法を比較した。
この手法が制約を改善することを実証するが、多くの場合、問題は持続する。
- 参考スコア(独自算出の注目度): 1.3124513975412255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores negative lexical constraining in English to Czech neural
machine translation. Negative lexical constraining is used to prohibit certain
words or expressions in the translation produced by the neural translation
model. We compared various methods based on modifying either the decoding
process or the training data. The comparison was performed on two tasks:
paraphrasing and feedback-based translation refinement. We also studied to
which extent these methods "evade" the constraints presented to the model
(usually in the dictionary form) by generating a different surface form of a
given constraint.We propose a way to mitigate the issue through training with
stemmed negative constraints to counter the model's ability to induce a variety
of the surface forms of a word that can result in bypassing the constraint. We
demonstrate that our method improves the constraining, although the problem
still persists in many cases.
- Abstract(参考訳): 本稿では,チェコのニューラルマシン翻訳に対する英語の否定的語彙制約について検討する。
負の語彙制約は、神経翻訳モデルによって生成される翻訳における特定の単語や表現を禁止するために用いられる。
復号処理やトレーニングデータの変更に基づく様々な手法を比較した。
比較はパラフレーズとフィードバックに基づく翻訳の改良の2つのタスクで行われた。
また,与えられた制約の異なる表層形式を生成することによって,モデルに提示される制約(通常は辞書形式で)を「回避」する手法について検討し,制約をバイパスする可能性のある単語の表面形態を多種多様に誘導するモデルの能力に対抗するために,否定的な制約を組み込んだトレーニングによって問題を緩和する方法を提案する。
この手法が制約を改善することを実証するが,問題の多くは継続する。
関連論文リスト
- An Analysis of BPE Vocabulary Trimming in Neural Machine Translation [56.383793805299234]
語彙トリミング(vocabulary trimming)は、まれなサブワードをコンポーネントサブワードに置き換える後処理のステップである。
ボキャブラリトリミングは性能向上に失敗し,さらに大きな劣化を招きやすいことを示す。
論文 参考訳(メタデータ) (2024-03-30T15:29:49Z) - Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - A Template-based Method for Constrained Neural Machine Translation [100.02590022551718]
本稿では,デコード速度を維持しつつ,高い翻訳品質と精度で結果が得られるテンプレートベースの手法を提案する。
テンプレートの生成と導出は、1つのシーケンスからシーケンスまでのトレーニングフレームワークを通じて学習することができる。
実験結果から,提案手法は語彙的,構造的に制約された翻訳タスクにおいて,いくつかの代表的ベースラインを上回り得ることが示された。
論文 参考訳(メタデータ) (2022-05-23T12:24:34Z) - Modeling Target-Side Morphology in Neural Machine Translation: A
Comparison of Strategies [72.56158036639707]
形態的に豊かな言語は機械翻訳に困難をもたらす。
多数の異なる屈折する単語曲面は、より大きな語彙を必要とする。
いくつかの頻度の低い用語は、通常、トレーニングコーパスには現れない。
言語的合意は、出力文中の屈折語形間の文法的カテゴリを正しく一致させる必要がある。
論文 参考訳(メタデータ) (2022-03-25T10:13:20Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - End-to-End Lexically Constrained Machine Translation for Morphologically
Rich Languages [0.0]
本研究は, 機械翻訳による単語の正しいインフレクションを許容する機構について検討する。
英語とチェコ語のペアを用いた実験により, 自動評価と手動評価の両方において, 制約付き単語の翻訳が改良されることが示唆された。
論文 参考訳(メタデータ) (2021-06-23T13:40:13Z) - Encouraging Neural Machine Translation to Satisfy Terminology
Constraints [3.3108924994485096]
語彙制約を満たすためにニューラルマシン翻訳を奨励する新しいアプローチを提案する。
本手法は,トレーニング段階において動作し,推論段階における計算オーバーヘッドの増大を回避する。
論文 参考訳(メタデータ) (2021-06-07T15:46:07Z) - On Sampling-Based Training Criteria for Neural Language Modeling [97.35284042981675]
我々はモンテカルロサンプリング、重要サンプリング、補償部分和と呼ばれる新しい方法、およびノイズコントラスト推定を検討する。
対象のクラス後部確率を補正しさえすれば,これらすべてのサンプリング手法が同等に動作可能であることを示す。
Switchboard と LibriSpeech における言語モデリングと音声認識の実験結果が,我々の主張を支持した。
論文 参考訳(メタデータ) (2021-04-21T12:55:52Z) - Neural Text Generation with Artificial Negative Examples [7.187858820534111]
強化学習フレームワークでテキスト生成モデルを訓練することにより,任意のタイプのエラーを抑制することを提案する。
我々は、目標となるタイプのエラーを含む参照と文を識別できる訓練可能な報酬関数を使用する。
実験の結果,生成誤差の抑制と2つの機械翻訳と2つの画像キャプションタスクの大幅な改善を達成できることが示された。
論文 参考訳(メタデータ) (2020-12-28T07:25:10Z) - Lexically Constrained Neural Machine Translation with Levenshtein
Transformer [8.831954614241234]
本稿では,ニューラルネットワーク翻訳に語彙制約を組み込むための,単純かつ効果的なアルゴリズムを提案する。
提案手法は,デコード速度に影響を与えることなく,推論時に用語制約を注入する。
論文 参考訳(メタデータ) (2020-04-27T09:59:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。