論文の概要: Unsupervised Neural Machine Translation for Low-Resource Domains via
Meta-Learning
- arxiv url: http://arxiv.org/abs/2010.09046v2
- Date: Fri, 7 May 2021 14:14:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 03:49:52.563588
- Title: Unsupervised Neural Machine Translation for Low-Resource Domains via
Meta-Learning
- Title(参考訳): メタラーニングによる低リソース領域の教師なしニューラルネットワーク翻訳
- Authors: Cheonbok Park, Yunwon Tae, Taehee Kim, Soyoung Yang, Mohammad Azam
Khan, Eunjeong Park and Jaegul Choo
- Abstract要約: unsupervised neural machine translation (UNMT) のための新しいメタ学習アルゴリズムを提案する。
私たちは、少量のトレーニングデータだけを利用して、別のドメインに適応するようにモデルを訓練します。
我々のモデルは、最大2-4 BLEUスコアの転送学習に基づくアプローチを超越している。
- 参考スコア(独自算出の注目度): 27.86606560170401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised machine translation, which utilizes unpaired monolingual corpora
as training data, has achieved comparable performance against supervised
machine translation. However, it still suffers from data-scarce domains. To
address this issue, this paper presents a novel meta-learning algorithm for
unsupervised neural machine translation (UNMT) that trains the model to adapt
to another domain by utilizing only a small amount of training data. We assume
that domain-general knowledge is a significant factor in handling data-scarce
domains. Hence, we extend the meta-learning algorithm, which utilizes knowledge
learned from high-resource domains, to boost the performance of low-resource
UNMT. Our model surpasses a transfer learning-based approach by up to 2-4 BLEU
scores. Extensive experimental results show that our proposed algorithm is
pertinent for fast adaptation and consistently outperforms other baseline
models.
- Abstract(参考訳): 単言語コーパスをトレーニングデータとして使用した教師なし機械翻訳は,教師付き機械翻訳と同等のパフォーマンスを達成した。
しかし、依然としてデータスカースドメインに悩まされている。
そこで本研究では,少数のトレーニングデータのみを利用して,モデルが他の領域に適応するように訓練する,unsupervised neural machine translation (UNMT) のための新しいメタラーニングアルゴリズムを提案する。
データスカースドメインを扱う上で、ドメイン一般知識が重要な要素であると仮定する。
そこで我々は,低リソースUNMTの性能を高めるために,高リソース領域から学んだ知識を活用するメタ学習アルゴリズムを拡張した。
我々のモデルは、最大2-4 BLEUスコアの転送学習に基づくアプローチを上回る。
実験結果から,提案アルゴリズムは高速適応に有効であり,他のベースラインモデルより一貫した性能を示した。
関連論文リスト
- Semi-supervised Neural Machine Translation with Consistency
Regularization for Low-Resource Languages [3.475371300689165]
本稿では,高品質な文ペアを増補し,半教師付き方式でNMTモデルを訓練することにより,低リソース言語の問題に対処する,シンプルかつ効果的な手法を提案する。
具体的には、教師あり学習におけるクロスエントロピー損失と、疑似および拡張的対象文が与えられた教師なしのファッションにおけるKLディバージェンスを組み合わせる。
実験の結果,提案手法はNMTベースライン,特に0.46-2.03BLEUスコアを持つ低リソースデータセットにおいて,NMTベースラインを大幅に改善することが示された。
論文 参考訳(メタデータ) (2023-04-02T15:24:08Z) - Domain Adaptation Principal Component Analysis: base linear method for
learning with out-of-distribution data [55.41644538483948]
ドメイン適応は現代の機械学習において一般的なパラダイムである。
ドメイン適応主成分分析(DAPCA)という手法を提案する。
DAPCAは、領域適応タスクの解決に有用な線形化データ表現を見つける。
論文 参考訳(メタデータ) (2022-08-28T21:10:56Z) - DaLC: Domain Adaptation Learning Curve Prediction for Neural Machine
Translation [10.03007605098947]
ニューラルネットワーク翻訳(NMT)モデルのドメイン適応(DA)は、しばしば、ドメイン内の並列データのサンプルに基づいて新しいドメインに適応する訓練済みの一般NMTモデルに依存する。
本稿では,ソース言語におけるドメイン内単言語サンプルに基づいて,DAのパフォーマンスを予測可能なドメイン学習曲線予測(DaLC)モデルを提案する。
論文 参考訳(メタデータ) (2022-04-20T06:57:48Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - Non-Parametric Unsupervised Domain Adaptation for Neural Machine
Translation [61.27321597981737]
$k$NN-MTは、トレーニング済みニューラルネットワーク翻訳(NMT)モデルとドメイン固有のトークンレベルである$k$-nearest-neighbor検索を直接組み込むという有望な能力を示している。
対象言語におけるドメイン内単言語文を直接使用して,$k$-nearest-neighbor検索に有効なデータストアを構築する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-14T11:50:01Z) - Meta-Curriculum Learning for Domain Adaptation in Neural Machine
Translation [19.973201669851626]
ニューラルマシン翻訳(NMT)における領域適応のための新しいメタカリキュラム学習の提案
メタトレーニング中、NMTはまず各ドメインから同様のカリキュラムを学習し、早期に悪い局所的最適値に陥ることを避ける。
メタキュラクルム学習は,慣れ親しんだドメインと未知のドメインの両方の翻訳性能を向上させることができる。
論文 参考訳(メタデータ) (2021-03-03T08:58:39Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Minimax Lower Bounds for Transfer Learning with Linear and One-hidden
Layer Neural Networks [27.44348371795822]
転送学習の限界を特徴付けるための統計的ミニマックスフレームワークを開発する。
ラベル付きソース数とターゲットデータの関数として,任意のアルゴリズムで達成可能なターゲット一般化誤差に対して,低いバウンドを導出する。
論文 参考訳(メタデータ) (2020-06-16T22:49:26Z) - Dynamic Data Selection and Weighting for Iterative Back-Translation [116.14378571769045]
本稿では,反復的バックトランスレーションモデルのためのカリキュラム学習戦略を提案する。
我々は、ドメイン適応、低リソース、高リソースMT設定に関するモデルを評価する。
実験の結果,提案手法は競争基準値よりも最大1.8 BLEU点の改善を達成できた。
論文 参考訳(メタデータ) (2020-04-07T19:49:58Z) - A Simple Baseline to Semi-Supervised Domain Adaptation for Machine
Translation [73.3550140511458]
State-of-the-art Neural Machine Translation (NMT)システムは、データハングリーであり、教師付きデータを持たない新しいドメインではパフォーマンスが良くない。
NMTの半教師付きドメイン適応シナリオに対する単純だが効果のあるアプローチを提案する。
このアプローチは、言語モデリング、バックトランスレーション、教師付き翻訳の3つのトレーニング目標を通じて、TransformerベースのNMTモデルを反復的にトレーニングする。
論文 参考訳(メタデータ) (2020-01-22T16:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。