論文の概要: As Little as Possible, as Much as Necessary: Detecting Over- and
Undertranslations with Contrastive Conditioning
- arxiv url: http://arxiv.org/abs/2203.01927v1
- Date: Thu, 3 Mar 2022 18:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 15:16:19.278350
- Title: As Little as Possible, as Much as Necessary: Detecting Over- and
Undertranslations with Contrastive Conditioning
- Title(参考訳): 可能な限り、必要な限り、:コントラスト条件付き過剰および過度翻訳の検出
- Authors: Jannis Vamvas and Rico Sennrich
- Abstract要約: 本稿では,ニューラルマシン翻訳における過剰な単語の検出手法を提案する。
我々は,翻訳モデルに基づく全列の確率と,対応するソースやターゲットシーケンスを考慮に入れた部分の確率を比較する。
これにより、参照翻訳がなくても、翻訳中の過剰な単語とソース内の未翻訳の単語をピンポイントで特定することができる。
- 参考スコア(独自算出の注目度): 42.46681912294797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Omission and addition of content is a typical issue in neural machine
translation. We propose a method for detecting such phenomena with
off-the-shelf translation models. Using contrastive conditioning, we compare
the likelihood of a full sequence under a translation model to the likelihood
of its parts, given the corresponding source or target sequence. This allows to
pinpoint superfluous words in the translation and untranslated words in the
source even in the absence of a reference translation. The accuracy of our
method is comparable to a supervised method that requires a custom quality
estimation model.
- Abstract(参考訳): コンテンツの削除と追加は、ニューラルマシン翻訳の典型的な問題である。
既成の翻訳モデルを用いて,そのような現象を検出する手法を提案する。
コントラストコンディショニングを用いて、翻訳モデルの下での完全シーケンスの可能性と、対応するソースまたは対象シーケンスを与えられた部分の可能性を比較検討する。
これにより、参照翻訳がなくても、翻訳中の過剰な単語とソース内の未翻訳の単語をピンポイントできる。
本手法の精度は,独自の品質推定モデルを必要とする教師あり手法に匹敵する。
関連論文リスト
- Translating away Translationese without Parallel Data [14.423809260672877]
翻訳されたテキストは、同じ言語の原文と比較して体系的な言語的差異を示す。
本稿では,翻訳文の翻訳文を減らすための新しい手法について検討する。
自己監督損失と教師なし損失を組み合わせて並列検証データの必要性を解消する方法を示す。
論文 参考訳(メタデータ) (2023-10-28T22:11:25Z) - Towards Fine-Grained Information: Identifying the Type and Location of
Translation Errors [80.22825549235556]
既存のアプローチでは、エラーの位置と型を同期的に考慮することはできない。
我々はtextbf の追加と textbfomission エラーを予測するために FG-TED モデルを構築した。
実験により,本モデルではエラータイプと位置の同時同定が可能であり,最先端の結果が得られた。
論文 参考訳(メタデータ) (2023-02-17T16:20:33Z) - HanoiT: Enhancing Context-aware Translation via Selective Context [95.93730812799798]
コンテキスト対応ニューラルネットワーク翻訳は、文書レベルのコンテキストを使用して翻訳品質を改善することを目的としている。
無関係または自明な単語は、いくつかのノイズをもたらし、モデルが現在の文と補助的な文脈の関係を学ぶのを邪魔する可能性がある。
そこで本稿では,階層的選択機構を備えたエンド・ツー・エンドのエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:07:13Z) - Principled Paraphrase Generation with Parallel Corpora [52.78059089341062]
ラウンドトリップ機械翻訳によって引き起こされる暗黙の類似性関数を形式化する。
一つのあいまいな翻訳を共有する非パラフレーズ対に感受性があることが示される。
この問題を緩和する別の類似度指標を設計する。
論文 参考訳(メタデータ) (2022-05-24T17:22:42Z) - Modelling Latent Translations for Cross-Lingual Transfer [47.61502999819699]
従来のパイプラインの2つのステップ(翻訳と分類)を1つのモデルに統合する新しい手法を提案する。
我々は,多言語NLUタスクにおける新しい潜時翻訳モデルの評価を行った。
ゼロショットと数ショットの学習設定の両方で、平均2.7の精度ポイントのゲインを報告します。
論文 参考訳(メタデータ) (2021-07-23T17:11:27Z) - End-to-End Lexically Constrained Machine Translation for Morphologically
Rich Languages [0.0]
本研究は, 機械翻訳による単語の正しいインフレクションを許容する機構について検討する。
英語とチェコ語のペアを用いた実験により, 自動評価と手動評価の両方において, 制約付き単語の翻訳が改良されることが示唆された。
論文 参考訳(メタデータ) (2021-06-23T13:40:13Z) - Lexically Cohesive Neural Machine Translation with Copy Mechanism [21.43163704217968]
我々は、従来の出力からの単語のコピーを可能にするために、文脈認識型ニューラルネットワーク翻訳モデルにコピー機構を用いる。
談話翻訳のための評価データセットを用いて、日本語から英語への翻訳実験を行う。
論文 参考訳(メタデータ) (2020-10-11T08:39:02Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。