論文の概要: Uncertainty-Aware Semantic Augmentation for Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2010.04411v1
- Date: Fri, 9 Oct 2020 07:48:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 05:22:41.148755
- Title: Uncertainty-Aware Semantic Augmentation for Neural Machine Translation
- Title(参考訳): ニューラルマシン翻訳のための不確実性認識意味拡張
- Authors: Xiangpeng Wei and Heng Yu and Yue Hu and Rongxiang Weng and Luxi Xing
and Weihua Luo
- Abstract要約: 本稿では,複数の意味的に等価なソース文間の普遍的な意味情報を明示的にキャプチャする不確実性を考慮した意味拡張を提案する。
我々のアプローチは、強いベースラインと既存の手法を大きく上回る。
- 参考スコア(独自算出の注目度): 37.555675157198145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a sequence-to-sequence generation task, neural machine translation (NMT)
naturally contains intrinsic uncertainty, where a single sentence in one
language has multiple valid counterparts in the other. However, the dominant
methods for NMT only observe one of them from the parallel corpora for the
model training but have to deal with adequate variations under the same meaning
at inference. This leads to a discrepancy of the data distribution between the
training and the inference phases. To address this problem, we propose
uncertainty-aware semantic augmentation, which explicitly captures the
universal semantic information among multiple semantically-equivalent source
sentences and enhances the hidden representations with this information for
better translations. Extensive experiments on various translation tasks reveal
that our approach significantly outperforms the strong baselines and the
existing methods.
- Abstract(参考訳): シーケンス・ツー・シーケンス生成タスクとして、ニューラルネットワーク翻訳(NMT)は本質的に本質的な不確実性を含む。
しかし、NMTの主流となる手法は、モデルトレーニングのための並列コーパスからのみ観測されるが、推論時に同じ意味の下で適切なバリエーションを扱う必要がある。
これにより、トレーニングと推論フェーズの間のデータ分布のばらつきが生じる。
そこで本研究では,複数の意味的同値な原文間の普遍的意味情報を明示的に捉え,より優れた翻訳のためにこの情報を用いて隠れ表現を拡張できる不確実性認識意味拡張法を提案する。
各種翻訳タスクの広範囲な実験により,本手法は強いベースラインと既存手法を著しく上回っていることが明らかとなった。
関連論文リスト
- Understanding and Addressing the Under-Translation Problem from the Perspective of Decoding Objective [72.83966378613238]
最新のニューラル・マシン・トランスレーション(NMT)システムでは、アンダー・トランスレーションとオーバー・トランスレーションの2つの課題が残っている。
我々は,NMTにおけるアンダートランスレーションの根本原因を詳細に分析し,デコード目的の観点から解説する。
本研究は,低翻訳の検知器としてEOS(End Of Sentence)予測の信頼性を活用し,低翻訳のリスクが高い候補を罰する信頼性に基づくペナルティを強化することを提案する。
論文 参考訳(メタデータ) (2024-05-29T09:25:49Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Progressive Translation: Improving Domain Robustness of Neural Machine
Translation with Intermediate Sequences [37.71415679778235]
そこで我々は,「ソースライク」構造から「ターゲットライク」構造への中間系列である中間信号を提案する。
このような中間列は、ドメインに依存しない翻訳の原理を反映する帰納的バイアスをもたらす。
実験により、導入した中間信号はNTTの領域堅牢性を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2023-05-16T04:15:25Z) - Understanding and Bridging the Modality Gap for Speech Translation [11.13240570688547]
マルチタスク学習は、機械翻訳(MT)とエンドツーエンド音声翻訳(ST)の間で知識を共有する効果的な方法の1つである。
しかし、音声とテキストの違いにより、STとMTの間には常にギャップがある。
本稿では,まず,このモダリティギャップを対象側の表現差から理解し,そのモダリティギャップとニューラルマシン翻訳における他のよく知られた問題,すなわち露出バイアスを関連付けることを目的とする。
論文 参考訳(メタデータ) (2023-05-15T15:09:18Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - Bridging the Data Gap between Training and Inference for Unsupervised
Neural Machine Translation [49.916963624249355]
UNMTモデルは、翻訳されたソースと推論中の自然言語で擬似並列データに基づいて訓練される。
トレーニングと推論のソース差はUNMTモデルの翻訳性能を妨げている。
本稿では、擬似並列データ自然言語を同時に用いたオンライン自己学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-16T04:50:27Z) - Uncertainty-Aware Balancing for Multilingual and Multi-Domain Neural
Machine Translation Training [58.72619374790418]
MultiUATはモデルの不確実性に基づいてトレーニングデータの使用量を動的に調整する。
クロスドメイン転送を解析し、静的および類似性に基づく手法の欠如を示す。
論文 参考訳(メタデータ) (2021-09-06T08:30:33Z) - Modelling Latent Translations for Cross-Lingual Transfer [47.61502999819699]
従来のパイプラインの2つのステップ(翻訳と分類)を1つのモデルに統合する新しい手法を提案する。
我々は,多言語NLUタスクにおける新しい潜時翻訳モデルの評価を行った。
ゼロショットと数ショットの学習設定の両方で、平均2.7の精度ポイントのゲインを報告します。
論文 参考訳(メタデータ) (2021-07-23T17:11:27Z) - Beyond Noise: Mitigating the Impact of Fine-grained Semantic Divergences
on Neural Machine Translation [14.645468999921961]
本研究は,トランスフォーマーモデルにおける様々な種類の細粒度セマンティックな違いの影響を解析する。
自然に発生する発散による劣化からNMTが回復するのに役立つ因子を用いた発散型NMTフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-31T16:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。