論文の概要: An Empirical study of Unsupervised Neural Machine Translation: analyzing
NMT output, model's behavior and sentences' contribution
- arxiv url: http://arxiv.org/abs/2312.12588v1
- Date: Tue, 19 Dec 2023 20:35:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 17:48:13.449667
- Title: An Empirical study of Unsupervised Neural Machine Translation: analyzing
NMT output, model's behavior and sentences' contribution
- Title(参考訳): 教師なしニューラルマシン翻訳の実験的研究:nmt出力、モデル行動、文の寄与の分析
- Authors: Isidora Chara Tourni, Derry Wijaya
- Abstract要約: Unsupervised Neural Machine Translation (UNMT) は、人間の翻訳された並列データがないと仮定して、NMTの結果を改善することに焦点を当てている。
私たちは、フランス語、グジャラーティ、カザフ語という3つの非常に多様な言語に焦点を合わせ、バイリンガルなNMTモデルを英語から英語に訓練し、様々なレベルの監督を行っている。
- 参考スコア(独自算出の注目度): 5.691028372215281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised Neural Machine Translation (UNMT) focuses on improving NMT
results under the assumption there is no human translated parallel data, yet
little work has been done so far in highlighting its advantages compared to
supervised methods and analyzing its output in aspects other than translation
accuracy. We focus on three very diverse languages, French, Gujarati, and
Kazakh, and train bilingual NMT models, to and from English, with various
levels of supervision, in high- and low- resource setups, measure quality of
the NMT output and compare the generated sequences' word order and semantic
similarity to source and reference sentences. We also use Layer-wise Relevance
Propagation to evaluate the source and target sentences' contribution to the
result, expanding the findings of previous works to the UNMT paradigm.
- Abstract(参考訳): unsupervised neural machine translation (unmt) は、人間が翻訳した並列データがないという仮定の下でnmt結果を改善することに重点を置いているが、教師付き手法に比べてその利点を強調し、翻訳精度以外の側面で結果を分析する作業はほとんど行われていない。
我々は、フランス語、グジャラート語、カザフ語という3つの非常に多種多様な言語に焦点をあて、ハイリソースと低リソースの設定において様々なレベルの監督を行い、NMT出力の品質を測定し、生成されたシーケンスの語順とソースや参照文とのセマンティックな類似性を比較する。
また,先行研究の成果をunmtパラダイムに拡大し,結果に対する原文と対象文の寄与度を評価するために,階層的関連伝播を用いた。
関連論文リスト
- The Comparison of Translationese in Machine Translation and Human Transation in terms of Translation Relations [7.776258153133857]
この研究は2つのパラレルコーパスを用いており、それぞれが9つのジャンルにまたがって、同じソーステキストで、1つはNMTによって翻訳され、もう1つは人間によって翻訳された。
以上の結果から,NMTはHTよりも翻訳に大きく依存していることが示唆された。
論文 参考訳(メタデータ) (2024-03-27T19:12:20Z) - Unified Model Learning for Various Neural Machine Translation [63.320005222549646]
既存の機械翻訳(NMT)研究は主にデータセット固有のモデルの開発に焦点を当てている。
我々は,NMT(UMLNMT)のための統一モデル学習モデル(Unified Model Learning for NMT)を提案する。
OurNMTは、データセット固有のモデルよりも大幅に改善され、モデルデプロイメントコストが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-04T12:21:52Z) - Towards Reliable Neural Machine Translation with Consistency-Aware
Meta-Learning [24.64700139151659]
現在のニューラル機械翻訳(NMT)システムは信頼性の欠如に悩まされている。
本稿では,モデルに依存しないメタラーニング(MAML)アルゴリズムをベースとした,一貫性を考慮したメタラーニング(CAML)フレームワークを提案する。
我々は、NIST中国語から英語へのタスク、3つのWMT翻訳タスク、TED M2Oタスクについて実験を行った。
論文 参考訳(メタデータ) (2023-03-20T09:41:28Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - Self-supervised and Supervised Joint Training for Resource-rich Machine
Translation [30.502625878505732]
テキスト表現の自己教師付き事前学習が低リソースニューラルネットワーク翻訳(NMT)に成功している
我々は,NMTモデルを最適化するために,自己教師付き学習と教師付き学習を組み合わせた共同学習手法である$F$-XEnDecを提案する。
論文 参考訳(メタデータ) (2021-06-08T02:35:40Z) - Prevent the Language Model from being Overconfident in Neural Machine
Translation [21.203435303812043]
本稿では,MTO(Margin-based Objective)とMSO(Margin-based Sentence Level Objective)を提案する。
WMT14英語-ドイツ語、WMT19中国語-英語、WMT14英語-フランス語翻訳タスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2021-05-24T05:34:09Z) - On the Inference Calibration of Neural Machine Translation [54.48932804996506]
校正と翻訳性能と誤校正の言語特性の相関について検討した。
そこで本研究では,推論キャリブレーションと翻訳性能を両立できる新しいラベル平滑化手法を提案する。
論文 参考訳(メタデータ) (2020-05-03T02:03:56Z) - Self-Training for Unsupervised Neural Machine Translation in Unbalanced
Training Data Scenarios [61.88012735215636]
巨大な単言語コーパスのみに依存するunsupervised neural machine translation (UNMT)は、いくつかの翻訳タスクにおいて顕著な成果を上げている。
現実のシナリオでは、エストニア語のような極低リソース言語には巨大なモノリンガルコーパスは存在しない。
頑健なUNMTシステムの訓練と性能向上のためのUNMT自己学習機構を提案する。
論文 参考訳(メタデータ) (2020-04-09T12:07:17Z) - Explicit Reordering for Neural Machine Translation [50.70683739103066]
Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己アテンションネットワークが順序依存でソース表現を学習するのに役立つ。
本研究では,トランスフォーマーベースのNMTに対して,このリオーダ情報を明示的にモデル化する新しいリオーダ手法を提案する。
WMT14, WAT ASPEC日本語訳, WMT17中国語訳の実証結果から, 提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-04-08T05:28:46Z) - Cross-lingual Supervision Improves Unsupervised Neural Machine
Translation [97.84871088440102]
我々は,高リソース言語対からゼロリソース翻訳方向への弱教師付き信号を活用するために,多言語非教師付きNMTフレームワークを導入する。
6つのベンチマークの教師なし翻訳方向において,BLEUスコアが3以上あることにより,翻訳品質が大幅に向上する。
論文 参考訳(メタデータ) (2020-04-07T05:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。