論文の概要: What Can Unsupervised Machine Translation Contribute to High-Resource
Language Pairs?
- arxiv url: http://arxiv.org/abs/2106.15818v1
- Date: Wed, 30 Jun 2021 05:44:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 15:37:51.221345
- Title: What Can Unsupervised Machine Translation Contribute to High-Resource
Language Pairs?
- Title(参考訳): 教師なし機械翻訳はハイソース言語に何をもたらすのか?
- Authors: Kelly Marchisio, Markus Freitag, David Grangier
- Abstract要約: 我々は、教師なしMTと教師なしMTのどちらによって生成された正しい翻訳のスタイルを比較した。
我々は、教師なしおよび教師なしMTの利点を単一のシステムに組み合わせる方法を示す。
- 参考スコア(独自算出の注目度): 18.924296648372795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whereas existing literature on unsupervised machine translation (MT) focuses
on exploiting unsupervised techniques for low-resource language pairs where
bilingual training data is scare or unavailable, we investigate whether
unsupervised MT can also improve translation quality of high-resource language
pairs where sufficient bitext does exist. We compare the style of correct
translations generated by either supervised or unsupervised MT and find that
the unsupervised output is less monotonic and more natural than supervised
output. We demonstrate a way to combine the benefits of unsupervised and
supervised MT into a single system, resulting in better human evaluation of
quality and fluency. Our results open the door to discussions about the
potential contributions of unsupervised MT in high-resource settings, and how
supervised and unsupervised systems might be mutually-beneficial.
- Abstract(参考訳): 非教師付き機械翻訳(unsupervised machine translation, mt)に関する既存の文献では,バイリンガルなトレーニングデータが怖かったり,利用できない低リソース言語ペアに対する教師なし技術の利用が重視されているが,教師なしmtは十分なバイテキストが存在する高リソース言語ペアの翻訳品質を向上させることができるかを検討する。
教師なしまたは教師なしのmtで生成された正しい翻訳のスタイルを比較し、教師なしの出力が教師なしの出力よりも単調で自然であることを示す。
我々は,教師なしのmtと教師なしのmtの利点を一つのシステムに統合する方法を実証し,品質と流動性を評価する。
本研究の結果は,教師なしMTの高リソース環境における潜在的貢献と,教師なしシステムと教師なしシステムの相互便益性に関する議論の扉を開くものである。
関連論文リスト
- An Empirical study of Unsupervised Neural Machine Translation: analyzing
NMT output, model's behavior and sentences' contribution [5.691028372215281]
Unsupervised Neural Machine Translation (UNMT) は、人間の翻訳された並列データがないと仮定して、NMTの結果を改善することに焦点を当てている。
私たちは、フランス語、グジャラーティ、カザフ語という3つの非常に多様な言語に焦点を合わせ、バイリンガルなNMTモデルを英語から英語に訓練し、様々なレベルの監督を行っている。
論文 参考訳(メタデータ) (2023-12-19T20:35:08Z) - Perturbation-based QE: An Explainable, Unsupervised Word-level Quality
Estimation Method for Blackbox Machine Translation [12.376309678270275]
摂動に基づくQEは、単に摂動入力元文上で出力されるMTシステムを分析することで機能する。
我々のアプローチは、教師付きQEよりも、翻訳における性別バイアスや単語センスの曖昧さの誤りを検出するのに優れている。
論文 参考訳(メタデータ) (2023-05-12T13:10:57Z) - Improving Cascaded Unsupervised Speech Translation with Denoising
Back-translation [70.33052952571884]
我々は,任意のペアデータを活用することなく,カスケード音声翻訳システムを構築することを提案する。
教師なしのシステムをトレーニングし、CoVoST 2 と CVSS で結果を評価するために、完全にペア化されたデータを使用します。
論文 参考訳(メタデータ) (2023-05-12T13:07:51Z) - Dictionary-based Phrase-level Prompting of Large Language Models for
Machine Translation [91.57514888410205]
大規模言語モデル(LLM)は、プロンプトによる機械翻訳(MT)能力を示す。
LLMは、低リソースやドメイン転送のシナリオで一般的なまれな単語で入力を翻訳するのに苦労する。
LLMプロンプトは、バイリンガル辞書からの事前知識を用いてプロンプトの制御ヒントを提供することにより、稀な単語に対する効果的な解決策を提供することができることを示す。
論文 参考訳(メタデータ) (2023-02-15T18:46:42Z) - Unsupervised Multimodal Neural Machine Translation with Pseudo Visual
Pivoting [105.5303416210736]
非教師なし機械翻訳(MT)は、最近モノリンガルコーパスのみを用いて印象的な結果を得た。
ソースターゲットの文を潜時空間で関連付けることは依然として困難である。
異なる言語が生物学的に類似の視覚システムを共有しているため、視覚的コンテンツを通してより良いアライメントを達成する可能性は有望である。
論文 参考訳(メタデータ) (2020-05-06T20:11:46Z) - When and Why is Unsupervised Neural Machine Translation Useless? [43.68079166777282]
様々なデータ設定を持つ10の翻訳タスクにおいて、教師なし手法が妥当な翻訳を生成できない条件を分析する。
我々の分析は、現在の無監督NMTの限界を指摘し、即時の研究方向も示唆している。
論文 参考訳(メタデータ) (2020-04-22T14:00:55Z) - When Does Unsupervised Machine Translation Work? [23.690875724726908]
我々は、異種言語ペア、異種ドメイン、多様なデータセット、真の低リソース言語を用いて、教師なし機械翻訳(MT)の実証評価を行う。
ソースコーパスとターゲットコーパスが異なるドメインから来た場合,性能は急速に低下することがわかった。
さらに、ソース言語とターゲット言語が異なるスクリプトを使用すると、教師なしMT性能が低下し、信頼性の高い低リソース言語ペアにおいて非常に低いパフォーマンスが観察される。
論文 参考訳(メタデータ) (2020-04-12T00:57:47Z) - Self-Training for Unsupervised Neural Machine Translation in Unbalanced
Training Data Scenarios [61.88012735215636]
巨大な単言語コーパスのみに依存するunsupervised neural machine translation (UNMT)は、いくつかの翻訳タスクにおいて顕著な成果を上げている。
現実のシナリオでは、エストニア語のような極低リソース言語には巨大なモノリンガルコーパスは存在しない。
頑健なUNMTシステムの訓練と性能向上のためのUNMT自己学習機構を提案する。
論文 参考訳(メタデータ) (2020-04-09T12:07:17Z) - Cross-lingual Supervision Improves Unsupervised Neural Machine
Translation [97.84871088440102]
我々は,高リソース言語対からゼロリソース翻訳方向への弱教師付き信号を活用するために,多言語非教師付きNMTフレームワークを導入する。
6つのベンチマークの教師なし翻訳方向において,BLEUスコアが3以上あることにより,翻訳品質が大幅に向上する。
論文 参考訳(メタデータ) (2020-04-07T05:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。