論文の概要: Neural Machine Translation with Contrastive Translation Memories
- arxiv url: http://arxiv.org/abs/2212.03140v1
- Date: Tue, 6 Dec 2022 17:10:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 15:38:20.408233
- Title: Neural Machine Translation with Contrastive Translation Memories
- Title(参考訳): コントラスト翻訳記憶を用いたニューラルマシン翻訳
- Authors: Xin Cheng, Shen Gao, Lemao Liu, Dongyan Zhao, Rui Yan
- Abstract要約: Retrieval-augmented Neural Machine Translationモデルは、多くの翻訳シナリオで成功している。
そこで本論文では,新たに検索拡張NMTを提案し,ソース文と相似なコントラスト検索された翻訳記憶をモデル化する。
訓練段階では、目標文に対する各TMの健全な特徴を学習するために、マルチTMコントラスト学習目標を導入する。
- 参考スコア(独自算出の注目度): 71.86990102704311
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented Neural Machine Translation models have been successful in
many translation scenarios. Different from previous works that make use of
mutually similar but redundant translation memories~(TMs), we propose a new
retrieval-augmented NMT to model contrastively retrieved translation memories
that are holistically similar to the source sentence while individually
contrastive to each other providing maximal information gains in three phases.
First, in TM retrieval phase, we adopt a contrastive retrieval algorithm to
avoid redundancy and uninformativeness of similar translation pieces. Second,
in memory encoding stage, given a set of TMs we propose a novel Hierarchical
Group Attention module to gather both local context of each TM and global
context of the whole TM set. Finally, in training phase, a Multi-TM contrastive
learning objective is introduced to learn salient feature of each TM with
respect to target sentence. Experimental results show that our framework
obtains improvements over strong baselines on the benchmark datasets.
- Abstract(参考訳): Retrieval-augmented Neural Machine Translationモデルは多くの翻訳シナリオで成功している。
相互に類似するが冗長な翻訳メモリ~(TMs)を利用する従来の作品と異なり,3相の最大情報ゲインを個別に比較しながら,原文と直感的に類似した翻訳メモリをモデル化する新たな検索拡張NMTを提案する。
まず,tm検索フェーズにおいて,類似の翻訳文の冗長性と不均一性を回避するために,コントラスト検索アルゴリズムを採用する。
第二に、記憶符号化の段階において、各TMの局所的コンテキストと全TMのグローバル的コンテキストの両方を収集する新しい階層的グループ注意モジュールを提案する。
最後に、学習段階において、目標文に対する各TMの健全な特徴を学習するために、マルチTMコントラスト学習目標を導入する。
実験の結果、ベンチマークデータセットの強力なベースラインよりも改善が得られた。
関連論文リスト
- Towards Zero-Shot Multimodal Machine Translation [64.9141931372384]
本稿では,マルチモーダル機械翻訳システムの学習において,完全教師付きデータの必要性を回避する手法を提案する。
我々の手法はZeroMMTと呼ばれ、2つの目的の混合で学習することで、強いテキストのみの機械翻訳(MT)モデルを適応させることである。
本手法が完全に教師付きトレーニングデータを持たない言語に一般化されることを証明するため,CoMMuTE評価データセットをアラビア語,ロシア語,中国語の3言語に拡張した。
論文 参考訳(メタデータ) (2024-07-18T15:20:31Z) - Unified Model Learning for Various Neural Machine Translation [63.320005222549646]
既存の機械翻訳(NMT)研究は主にデータセット固有のモデルの開発に焦点を当てている。
我々は,NMT(UMLNMT)のための統一モデル学習モデル(Unified Model Learning for NMT)を提案する。
OurNMTは、データセット固有のモデルよりも大幅に改善され、モデルデプロイメントコストが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-04T12:21:52Z) - Beyond Triplet: Leveraging the Most Data for Multimodal Machine
Translation [53.342921374639346]
マルチモーダル機械翻訳は、視覚などの他のモーダルからの情報を取り入れることで、翻訳品質を向上させることを目的としている。
従来のMMTシステムは主に視覚情報へのアクセスと利用に重点を置いており、画像関連データセット上でそれらの手法を検証する傾向がある。
本稿では,MTのための新しい手法と新しいデータセットを確立する。
論文 参考訳(メタデータ) (2022-12-20T15:02:38Z) - Tackling Ambiguity with Images: Improved Multimodal Machine Translation
and Contrastive Evaluation [72.6667341525552]
本稿では,ニューラルアダプターとガイド付き自己注意機構を用いた,強いテキストのみのMTモデルに基づく新しいMT手法を提案する。
また,不明瞭な文とその翻訳が可能なコントラスト型多モーダル翻訳評価セットであるCoMMuTEについても紹介する。
提案手法は, 標準英語-フランス語, 英語-ドイツ語, 英語-チェコ語のベンチマークにおいて, 強いテキストのみのモデルと比較して, 競争力のある結果が得られる。
論文 参考訳(メタデータ) (2022-12-20T10:18:18Z) - Bilingual Synchronization: Restoring Translational Relationships with
Editing Operations [2.0411082897313984]
我々は、最初のターゲットシーケンスを仮定するより一般的な設定を考え、ソースの有効な翻訳に変換する必要がある。
この結果から、一度微調整された1つの汎用的な編集ベースシステムは、これらのタスクに特化して訓練された専用システムと比較、あるいは性能に優れる可能性が示唆された。
論文 参考訳(メタデータ) (2022-10-24T12:25:44Z) - Improving Robustness of Retrieval Augmented Translation via Shuffling of
Suggestions [15.845071122977158]
既存の検索拡張翻訳手法では,テストセットにドメインミスマッチを付加したTMを用いることで,TMを全く使用していない場合に比べれば,性能が著しく低下することが示された。
トレーニング中にファジィマッチングNMTシステムを公開するための簡単な手法を提案し、ドメインミスマッチによるTMの推論よりも耐障害性(最大5.8BLEUまで)が高いことを示す。
論文 参考訳(メタデータ) (2022-10-11T00:09:51Z) - STEMM: Self-learning with Speech-text Manifold Mixup for Speech
Translation [37.51435498386953]
本稿では,その差分を補正するSTEMM法を提案する。
MuST-C音声翻訳ベンチマークおよびさらなる解析実験により,本手法はモーダル表現の不一致を効果的に軽減することが示された。
論文 参考訳(メタデータ) (2022-03-20T01:49:53Z) - Neural Machine Translation with Monolingual Translation Memory [58.98657907678992]
本稿では,モノリンガルメモリを用いて学習可能なメモリ検索を行う新しいフレームワークを提案する。
実験の結果,提案手法は大幅な改善が得られた。
論文 参考訳(メタデータ) (2021-05-24T13:35:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。