論文の概要: On Compositional Generalization of Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2105.14802v1
- Date: Mon, 31 May 2021 09:04:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 03:41:52.772639
- Title: On Compositional Generalization of Neural Machine Translation
- Title(参考訳): ニューラルマシン翻訳の合成一般化について
- Authors: Yafu Li, Yongjing Yin, Yulong Chen and Yue Zhang
- Abstract要約: 合成一般化の観点からNMTモデルについて検討する。
我々は216kクリーンで一貫した文ペアからなるベンチマークデータセットCoGnitionを構築した。
複合翻訳誤り率を用いて種々の因子の効果を定量的に分析し,NMTモデルが構成一般化に悪影響を及ぼすことを示した。
- 参考スコア(独自算出の注目度): 11.171958188127961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern neural machine translation (NMT) models have achieved competitive
performance in standard benchmarks such as WMT. However, there still exist
significant issues such as robustness, domain generalization, etc. In this
paper, we study NMT models from the perspective of compositional generalization
by building a benchmark dataset, CoGnition, consisting of 216k clean and
consistent sentence pairs. We quantitatively analyze effects of various factors
using compound translation error rate, then demonstrate that the NMT model
fails badly on compositional generalization, although it performs remarkably
well under traditional metrics.
- Abstract(参考訳): 現代のニューラルマシン翻訳(NMT)モデルは、WMTのような標準ベンチマークで競合性能を達成した。
しかし、いまだに堅牢性、ドメインの一般化など重要な問題が残っている。
本稿では,216kクリーンで一貫した文対からなるベンチマークデータセットCoGnitionを構築することで,合成一般化の観点からNMTモデルを考察する。
合成翻訳誤り率を用いて種々の要因の影響を定量的に分析し,NMTモデルが従来の指標では極めてよく機能するが,構成一般化に悪影響を及ぼすことを示した。
関連論文リスト
- An Empirical study of Unsupervised Neural Machine Translation: analyzing
NMT output, model's behavior and sentences' contribution [5.691028372215281]
Unsupervised Neural Machine Translation (UNMT) は、人間の翻訳された並列データがないと仮定して、NMTの結果を改善することに焦点を当てている。
私たちは、フランス語、グジャラーティ、カザフ語という3つの非常に多様な言語に焦点を合わせ、バイリンガルなNMTモデルを英語から英語に訓練し、様々なレベルの監督を行っている。
論文 参考訳(メタデータ) (2023-12-19T20:35:08Z) - SLOG: A Structural Generalization Benchmark for Semantic Parsing [68.19511282584304]
合成一般化ベンチマークの目的は、モデルがいかにして新しい複雑な言語表現に一般化するかを評価することである。
既存のベンチマークは、しばしば語彙一般化に焦点を当て、訓練に精通した構文構造における新しい語彙項目の解釈は、しばしば不足している。
SLOGは,COGSを拡張したセマンティック解析データセットである。
論文 参考訳(メタデータ) (2023-10-23T15:39:09Z) - Joint Dropout: Improving Generalizability in Low-Resource Neural Machine
Translation through Phrase Pair Variables [17.300004156754966]
本稿では,低リソースのニューラルマシン翻訳において,句を変数に置き換えることによる課題に対処する,ジョイントドロップアウト(Joint Dropout)という手法を提案する。
BLEU と Direct Assessment のスコアに示すように,最小限のリソースを持つ言語対の翻訳品質は大幅に向上した。
論文 参考訳(メタデータ) (2023-07-24T14:33:49Z) - Unified Model Learning for Various Neural Machine Translation [63.320005222549646]
既存の機械翻訳(NMT)研究は主にデータセット固有のモデルの開発に焦点を当てている。
我々は,NMT(UMLNMT)のための統一モデル学習モデル(Unified Model Learning for NMT)を提案する。
OurNMTは、データセット固有のモデルよりも大幅に改善され、モデルデプロイメントコストが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-04T12:21:52Z) - Categorizing Semantic Representations for Neural Machine Translation [53.88794787958174]
ソースの文脈化表現に分類を導入する。
主な考え方は、スパーシリティとオーバーフィッティングを減らして一般化を強化することである。
MTデータセットを用いた実験により,提案手法は構成一般化誤差率を24%削減することを示した。
論文 参考訳(メタデータ) (2022-10-13T04:07:08Z) - Generating Authentic Adversarial Examples beyond Meaning-preserving with
Doubly Round-trip Translation [64.16077929617119]
二重ラウンド・トリップ翻訳(DRTT)に基づくNMT逆例の新しい基準を提案する。
NMTモデルの堅牢性を高めるため,両言語対を構築するためのマスキング言語モデルを提案する。
論文 参考訳(メタデータ) (2022-04-19T06:15:27Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - Beyond Noise: Mitigating the Impact of Fine-grained Semantic Divergences
on Neural Machine Translation [14.645468999921961]
本研究は,トランスフォーマーモデルにおける様々な種類の細粒度セマンティックな違いの影響を解析する。
自然に発生する発散による劣化からNMTが回復するのに役立つ因子を用いた発散型NMTフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-31T16:15:35Z) - The Unreasonable Volatility of Neural Machine Translation Models [5.44772285850031]
入力が意味的かつ構文的に正しいNMTモデルの予期せぬボラティリティについて検討する。
RNNモデルとTransformerモデルでは,それぞれ26%と19%の文変動が揮発性を示すことがわかった。
論文 参考訳(メタデータ) (2020-05-25T20:54:23Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。