論文の概要: When do Contrastive Word Alignments Improve Many-to-many Neural Machine
Translation?
- arxiv url: http://arxiv.org/abs/2204.12165v1
- Date: Tue, 26 Apr 2022 09:07:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 13:36:51.999358
- Title: When do Contrastive Word Alignments Improve Many-to-many Neural Machine
Translation?
- Title(参考訳): コントラスト的単語アライメントは多対多のニューラルマシン翻訳を改善するか?
- Authors: Zhuoyuan Mao, Chenhui Chu, Raj Dabre, Haiyue Song, Zhen Wan, Sadao
Kurohashi
- Abstract要約: 本研究は,多対多NMTにおける単語アライメントを活用するための単語レベルのコントラスト目的を提案する。
解析により,多くのNMTにおいて,エンコーダの文検索性能は翻訳品質と高い相関関係があることが判明した。
- 参考スコア(独自算出の注目度): 33.28706502928905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Word alignment has proven to benefit many-to-many neural machine translation
(NMT). However, high-quality ground-truth bilingual dictionaries were used for
pre-editing in previous methods, which are unavailable for most language pairs.
Meanwhile, the contrastive objective can implicitly utilize automatically
learned word alignment, which has not been explored in many-to-many NMT. This
work proposes a word-level contrastive objective to leverage word alignments
for many-to-many NMT. Empirical results show that this leads to 0.8 BLEU gains
for several language pairs. Analyses reveal that in many-to-many NMT, the
encoder's sentence retrieval performance highly correlates with the translation
quality, which explains when the proposed method impacts translation. This
motivates future exploration for many-to-many NMT to improve the encoder's
sentence retrieval performance.
- Abstract(参考訳): 単語アライメントは、多対多のニューラルマシン翻訳(NMT)に有用であることが証明されている。
しかし、ほとんどの言語対では利用できない以前の手法では、高品質な二言語辞書が事前編集に使われた。
一方,多くのNMTでは探索されていない単語アライメントを暗黙的に利用することができる。
本研究は,多対多nmtの単語アライメントを利用した単語レベルのコントラスト目標を提案する。
実験の結果、いくつかの言語ペアで0.8 bleuが得られた。
解析の結果,多対多のnmtでは,エンコーダの文検索性能は翻訳品質と高い相関を示し,提案手法が翻訳に与える影響を明らかにした。
これは、エンコーダの文検索性能を改善するために、多対多nmtの将来の探索を動機付ける。
関連論文リスト
- Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Learning Homographic Disambiguation Representation for Neural Machine
Translation [20.242134720005467]
ニューラル・マシン・トランスレーション(NMT)において、同じ綴りだが異なる意味を持つ単語であるホモグラフは依然として困難である
我々は、潜伏空間におけるNMT問題に取り組むための新しいアプローチを提案する。
まず、自然言語推論(NLI)タスクで普遍的な文表現を学ぶために、エンコーダ(別名ホモグラフィックエンコーダ)を訓練する。
さらに、ホモグラフベースの合成WordNetを用いてエンコーダを微調整し、文から単語集合表現を学習する。
論文 参考訳(メタデータ) (2023-04-12T13:42:59Z) - Towards Reliable Neural Machine Translation with Consistency-Aware
Meta-Learning [24.64700139151659]
現在のニューラル機械翻訳(NMT)システムは信頼性の欠如に悩まされている。
本稿では,モデルに依存しないメタラーニング(MAML)アルゴリズムをベースとした,一貫性を考慮したメタラーニング(CAML)フレームワークを提案する。
我々は、NIST中国語から英語へのタスク、3つのWMT翻訳タスク、TED M2Oタスクについて実験を行った。
論文 参考訳(メタデータ) (2023-03-20T09:41:28Z) - DICTDIS: Dictionary Constrained Disambiguation for Improved NMT [50.888881348723295]
我々は辞書から派生した複数の候補翻訳の曖昧さを解消する語彙制約付きNMTシステムであるDictDisを提案する。
我々は、規制、金融、工学を含む様々な分野において、英語・ヒンディー語・英語・ドイツ語文に関する広範な実験を通じて、DictDisの有用性を実証する。
論文 参考訳(メタデータ) (2022-10-13T13:04:16Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Assessing the Bilingual Knowledge Learned by Neural Machine Translation
Models [72.56058378313963]
NMTモデルで学習したバイリンガル知識をフレーズテーブルで評価することで,このギャップを埋める。
NMTモデルは、単純なものから複雑なものまでパターンを学習し、トレーニング例から本質的なバイリンガル知識を抽出する。
論文 参考訳(メタデータ) (2020-04-28T03:44:34Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z) - Knowledge Distillation for Multilingual Unsupervised Neural Machine
Translation [61.88012735215636]
unsupervised neural machine translation (UNMT) は、最近、いくつかの言語対に対して顕著な結果を得た。
UNMTは単一の言語ペア間でのみ翻訳することができ、同時に複数の言語ペアに対して翻訳結果を生成することはできない。
本稿では,1つのエンコーダと1つのデコーダを用いて13言語間を翻訳する簡単な手法を実証的に紹介する。
論文 参考訳(メタデータ) (2020-04-21T17:26:16Z) - Morphological Word Segmentation on Agglutinative Languages for Neural
Machine Translation [8.87546236839959]
ニューラル機械翻訳(NMT)のソース側における形態素単語分割法を提案する。
形態学の知識を取り入れて、単語構造における言語情報や意味情報を保存し、訓練時の語彙サイズを小さくする。
これは、他の自然言語処理(NLP)タスクのために、単語を集約言語に分割する前処理ツールとして利用することができる。
論文 参考訳(メタデータ) (2020-01-02T10:05:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。