論文の概要: DaLC: Domain Adaptation Learning Curve Prediction for Neural Machine
Translation
- arxiv url: http://arxiv.org/abs/2204.09259v1
- Date: Wed, 20 Apr 2022 06:57:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 22:52:51.304043
- Title: DaLC: Domain Adaptation Learning Curve Prediction for Neural Machine
Translation
- Title(参考訳): DaLC: ニューラルネットワーク翻訳のためのドメイン適応学習曲線予測
- Authors: Cheonbok Park, Hantae Kim, Ioan Calapodescu, Hyunchang Cho, and
Vassilina Nikoulina
- Abstract要約: ニューラルネットワーク翻訳(NMT)モデルのドメイン適応(DA)は、しばしば、ドメイン内の並列データのサンプルに基づいて新しいドメインに適応する訓練済みの一般NMTモデルに依存する。
本稿では,ソース言語におけるドメイン内単言語サンプルに基づいて,DAのパフォーマンスを予測可能なドメイン学習曲線予測(DaLC)モデルを提案する。
- 参考スコア(独自算出の注目度): 10.03007605098947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain Adaptation (DA) of Neural Machine Translation (NMT) model often relies
on a pre-trained general NMT model which is adapted to the new domain on a
sample of in-domain parallel data. Without parallel data, there is no way to
estimate the potential benefit of DA, nor the amount of parallel samples it
would require. It is however a desirable functionality that could help MT
practitioners to make an informed decision before investing resources in
dataset creation. We propose a Domain adaptation Learning Curve prediction
(DaLC) model that predicts prospective DA performance based on in-domain
monolingual samples in the source language. Our model relies on the NMT encoder
representations combined with various instance and corpus-level features. We
demonstrate that instance-level is better able to distinguish between different
domains compared to corpus-level frameworks proposed in previous studies.
Finally, we perform in-depth analyses of the results highlighting the
limitations of our approach, and provide directions for future research.
- Abstract(参考訳): ニューラルネットワーク翻訳(NMT)モデルのドメイン適応(DA)は、しばしば、ドメイン内の並列データのサンプルに基づいて新しいドメインに適応する訓練済みの一般NMTモデルに依存する。
並列データがないと、DAの潜在的な利点やそれが必要とする並列サンプルの量を見積もることはできない。
しかし、データセット作成にリソースを投資する前に、MT実践者が情報的な決定を下すのに役立つのは望ましい機能です。
本稿では,ソース言語におけるドメイン内単言語サンプルに基づき,da性能予測を行うドメイン適応学習曲線予測(dalc)モデルを提案する。
我々のモデルは、NMTエンコーダ表現と様々なインスタンスおよびコーパスレベルの特徴の組み合わせに依存している。
従来の研究で提案されたコーパスレベルフレームワークと比較して、インスタンスレベルが異なるドメインを区別できることを示す。
最後に,提案手法の限界を明らかにする結果の詳細な分析を行い,今後の研究の方向性を示す。
関連論文リスト
- LAMA-Net: Unsupervised Domain Adaptation via Latent Alignment and
Manifold Learning for RUL Prediction [0.0]
我々は,エンコーダ-デコーダベースモデル(Transformer)であるtextitLAMA-Net,平均最大離散性(MMD)を用いた潜在アライメント,および多様体学習を提案する。
提案手法は、RUL予測において領域適応を行うための有望なアプローチを提供する。
論文 参考訳(メタデータ) (2022-08-17T16:28:20Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - Non-Parametric Unsupervised Domain Adaptation for Neural Machine
Translation [61.27321597981737]
$k$NN-MTは、トレーニング済みニューラルネットワーク翻訳(NMT)モデルとドメイン固有のトークンレベルである$k$-nearest-neighbor検索を直接組み込むという有望な能力を示している。
対象言語におけるドメイン内単言語文を直接使用して,$k$-nearest-neighbor検索に有効なデータストアを構築する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-14T11:50:01Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z) - Domain Adaptation and Multi-Domain Adaptation for Neural Machine
Translation: A Survey [9.645196221785694]
ニューラルマシン翻訳(nmt)モデルのドメイン適応に対するロバストなアプローチに注目した。
特に、システムが複数のドメインから文を翻訳する必要がある場合を検討します。
我々はNMT研究の他の分野に対するドメイン適応とマルチドメイン適応技術の利点を強調した。
論文 参考訳(メタデータ) (2021-04-14T16:21:37Z) - Unsupervised Neural Machine Translation for Low-Resource Domains via
Meta-Learning [27.86606560170401]
unsupervised neural machine translation (UNMT) のための新しいメタ学習アルゴリズムを提案する。
私たちは、少量のトレーニングデータだけを利用して、別のドメインに適応するようにモデルを訓練します。
我々のモデルは、最大2-4 BLEUスコアの転送学習に基づくアプローチを超越している。
論文 参考訳(メタデータ) (2020-10-18T17:54:13Z) - Iterative Domain-Repaired Back-Translation [50.32925322697343]
本稿では,ドメイン内並列コーパスが少ない,あるいは存在しない,低リソースのドメイン固有翻訳に焦点を当てる。
本稿では,合成バイリンガルデータの翻訳を洗練するためのドメイン・リペアモデルを提案する。
提案手法の有効性を示すため,NMTモデルを特定の領域と一般領域から特定の領域に適応させる実験を行った。
論文 参考訳(メタデータ) (2020-10-06T04:38:09Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z) - A Simple Baseline to Semi-Supervised Domain Adaptation for Machine
Translation [73.3550140511458]
State-of-the-art Neural Machine Translation (NMT)システムは、データハングリーであり、教師付きデータを持たない新しいドメインではパフォーマンスが良くない。
NMTの半教師付きドメイン適応シナリオに対する単純だが効果のあるアプローチを提案する。
このアプローチは、言語モデリング、バックトランスレーション、教師付き翻訳の3つのトレーニング目標を通じて、TransformerベースのNMTモデルを反復的にトレーニングする。
論文 参考訳(メタデータ) (2020-01-22T16:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。