論文の概要: Improving Robustness of Retrieval Augmented Translation via Shuffling of
Suggestions
- arxiv url: http://arxiv.org/abs/2210.05059v1
- Date: Tue, 11 Oct 2022 00:09:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 15:26:27.614134
- Title: Improving Robustness of Retrieval Augmented Translation via Shuffling of
Suggestions
- Title(参考訳): Suggestionsのシャッフルによる検索拡張翻訳のロバスト性の改善
- Authors: Cuong Hoang, Devendra Sachan, Prashant Mathur, Brian Thompson,
Marcello Federico
- Abstract要約: 既存の検索拡張翻訳手法では,テストセットにドメインミスマッチを付加したTMを用いることで,TMを全く使用していない場合に比べれば,性能が著しく低下することが示された。
トレーニング中にファジィマッチングNMTシステムを公開するための簡単な手法を提案し、ドメインミスマッチによるTMの推論よりも耐障害性(最大5.8BLEUまで)が高いことを示す。
- 参考スコア(独自算出の注目度): 15.845071122977158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several recent studies have reported dramatic performance improvements in
neural machine translation (NMT) by augmenting translation at inference time
with fuzzy-matches retrieved from a translation memory (TM). However, these
studies all operate under the assumption that the TMs available at test time
are highly relevant to the testset. We demonstrate that for existing retrieval
augmented translation methods, using a TM with a domain mismatch to the test
set can result in substantially worse performance compared to not using a TM at
all. We propose a simple method to expose fuzzy-match NMT systems during
training and show that it results in a system that is much more tolerant
(regaining up to 5.8 BLEU) to inference with TMs with domain mismatch. Also,
the model is still competitive to the baseline when fed with suggestions from
relevant TMs.
- Abstract(参考訳): 最近のいくつかの研究では、翻訳メモリ(TM)から取得したファジィマッチを用いた推論時に翻訳を増強することにより、ニューラルネットワーク翻訳(NMT)の劇的な性能向上が報告されている。
しかしながら、これらの研究はすべて、テスト時に利用できるTMがテストセットに非常に関係しているという仮定の下で実行される。
既存の検索拡張翻訳手法では,テストセットにドメインミスマッチを付加したTMを用いることで,TMを全く使用していない場合に比べ,性能が著しく低下することを示した。
トレーニング中にファジィマッチングNMTシステムを公開するための簡単な手法を提案し、ドメインミスマッチによるTMの推論よりも耐障害性(最大5.8BLEUまで)が高いことを示す。
また、関連するtmsからの提案を受けると、モデルはまだベースラインと競合している。
関連論文リスト
- Rethinking Translation Memory Augmented Neural Machine Translation [45.21285869556621]
TM強化NMTは, トレーニングデータのゆらぎに敏感で, データの適合性に優れていた。
本稿では, 簡易かつ効果的なTM拡張NMTモデルを提案し, 分散を促進し, 矛盾現象に対処する。
拡張実験により,提案したTM拡張NMTは従来のNMTと既存のTM拡張NMTの両方に対して一貫した利得が得られることが示された。
論文 参考訳(メタデータ) (2023-06-12T08:32:04Z) - Augmenting Large Language Model Translators via Translation Memories [32.28138249566329]
翻訳メモリ(TM)をプロンプトとして使用することは、機械翻訳モデルのコンテキスト内学習において有望なアプローチである。
我々は、TMで大きな言語モデル(LLM)をプロンプトし、より優れたトランスレータを実現するための一歩を踏み出した。
論文 参考訳(メタデータ) (2023-05-27T04:47:09Z) - Prompting Neural Machine Translation with Translation Memories [32.5633128085849]
ニューラルネットワーク翻訳(NMT)システムにTMを導入する方法を提案する。
具体的には、テスト時にNMTモデルのプロンプトとしてTMを扱いますが、トレーニングプロセスはそのままです。
その結果、既存のNMTシステムのわずかに更新され、NMTに詳しい人なら誰でも数時間で実装できるようになりました。
論文 参考訳(メタデータ) (2023-01-13T03:33:26Z) - Neural Machine Translation with Contrastive Translation Memories [71.86990102704311]
Retrieval-augmented Neural Machine Translationモデルは、多くの翻訳シナリオで成功している。
そこで本論文では,新たに検索拡張NMTを提案し,ソース文と相似なコントラスト検索された翻訳記憶をモデル化する。
訓練段階では、目標文に対する各TMの健全な特徴を学習するために、マルチTMコントラスト学習目標を導入する。
論文 参考訳(メタデータ) (2022-12-06T17:10:17Z) - Improving Simultaneous Machine Translation with Monolingual Data [94.1085601198393]
同時機械翻訳(SiMT)は通常、全文ニューラルネットワーク翻訳(NMT)モデルからシーケンスレベルの知識蒸留(Seq-KD)によって行われる。
本稿では,Sq-KD で蒸留した外部モノリンガルデータとバイリンガルデータを組み合わせて,SiMT の学生を訓練する SiMT の改善のためにモノリンガルデータを活用することを提案する。
論文 参考訳(メタデータ) (2022-12-02T14:13:53Z) - Efficient Cluster-Based k-Nearest-Neighbor Machine Translation [65.69742565855395]
k-Nearest-Neighbor Machine Translation (kNN-MT)は、最近、ニューラルネットワーク翻訳(NMT)におけるドメイン適応のための非パラメトリックソリューションとして提案されている。
論文 参考訳(メタデータ) (2022-04-13T05:46:31Z) - Reference-based Magnetic Resonance Image Reconstruction Using Texture
Transforme [86.6394254676369]
高速MRI再構成のための新しいテクスチャトランスフォーマーモジュール(TTM)を提案する。
変換器のクエリやキーとしてアンダーサンプルのデータと参照データを定式化する。
提案したTTMは、MRIの再構成手法に積み重ねることで、その性能をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-11-18T03:06:25Z) - Distributed Word Representation in Tsetlin Machine [14.62945824459286]
Tsetlin Machine (TM) は命題論理に基づく解釈可能なパターン認識アルゴリズムである。
tmに事前学習した単語表現を用いる新しい手法を提案する。
このアプローチはTM性能を大幅に向上させ、同時に解釈性を維持します。
論文 参考訳(メタデータ) (2021-04-14T14:48:41Z) - On the Inference Calibration of Neural Machine Translation [54.48932804996506]
校正と翻訳性能と誤校正の言語特性の相関について検討した。
そこで本研究では,推論キャリブレーションと翻訳性能を両立できる新しいラベル平滑化手法を提案する。
論文 参考訳(メタデータ) (2020-05-03T02:03:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。