論文の概要: Domain Adaptation in Neural Machine Translation using a Qualia-Enriched
FrameNet
- arxiv url: http://arxiv.org/abs/2202.10287v1
- Date: Mon, 21 Feb 2022 15:05:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 08:44:24.689695
- Title: Domain Adaptation in Neural Machine Translation using a Qualia-Enriched
FrameNet
- Title(参考訳): Qualia-Enriched FrameNetを用いたニューラルネットワーク翻訳におけるドメイン適応
- Authors: Alexandre Diniz Costa, Mateus Coutinho Marim, Ely Edison da Silva
Matos and Tiago Timponi Torrent
- Abstract要約: ニューラルネットワーク翻訳(NMT)システムのドメイン適応手法であるScyllaを提案する。
Scyllaの2つのバージョンが提示される: 1つはソース文を入力として使用し、もう1つはターゲット文を使用する。
スポーツドメインの50文をブラジルポルトガル語から英語に翻訳する実験において,Scyllaを最先端の商用NMTシステムと比較した。
- 参考スコア(独自算出の注目度): 64.0476282000118
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper we present Scylla, a methodology for domain adaptation of
Neural Machine Translation (NMT) systems that make use of a multilingual
FrameNet enriched with qualia relations as an external knowledge base. Domain
adaptation techniques used in NMT usually require fine-tuning and in-domain
training data, which may pose difficulties for those working with
lesser-resourced languages and may also lead to performance decay of the NMT
system for out-of-domain sentences. Scylla does not require fine-tuning of the
NMT model, avoiding the risk of model over-fitting and consequent decrease in
performance for out-of-domain translations. Two versions of Scylla are
presented: one using the source sentence as input, and another one using the
target sentence. We evaluate Scylla in comparison to a state-of-the-art
commercial NMT system in an experiment in which 50 sentences from the Sports
domain are translated from Brazilian Portuguese to English. The two versions of
Scylla significantly outperform the baseline commercial system in HTER.
- Abstract(参考訳): 本稿では,クエーカー関係に富んだ多言語フレームネットを外部知識ベースとして利用するニューラルマシン翻訳(nmt)システムのドメイン適応手法であるscyllaを提案する。
NMTで使用されるドメイン適応技術は、通常、微調整とドメイン内トレーニングデータを必要とする。
scyllaはnmtモデルの微調整を必要とせず、オーバーフィッティングのモデル化やドメイン外翻訳の性能低下のリスクを回避する。
Scyllaの2つのバージョンが提示される: 1つはソース文を入力として使用し、もう1つはターゲット文を使用する。
スポーツドメインの50文をブラジルポルトガル語から英語に翻訳する実験において,Scyllaを最先端の商用NMTシステムと比較した。
Scyllaの2つのバージョンはHTERのベースラインの商用システムを大幅に上回った。
関連論文リスト
- Domain Adaptation for Arabic Machine Translation: The Case of Financial
Texts [0.7673339435080445]
金融分野でアラビア英語(AR-EN)翻訳のための並列コーパスを開発する。
我々は、ChatGPT-3.5 Turboを含むいくつかのNMTおよびLarge Languageモデルを微調整する。
ChatGPT翻訳の品質は, 自動評価および人的評価に基づく他のモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-22T13:37:19Z) - Exploiting Language Relatedness in Machine Translation Through Domain
Adaptation Techniques [3.257358540764261]
文のスケール化類似度スコアを,特に5グラムのKenLM言語モデルに基づく関連言語に適用する手法を提案する。
提案手法は, マルチドメインアプローチでは2 BLEU点, NMTでは3 BLEU点, 反復的バックトランスレーションアプローチでは2 BLEU点の増加に成功している。
論文 参考訳(メタデータ) (2023-03-03T09:07:30Z) - Efficient Cluster-Based k-Nearest-Neighbor Machine Translation [65.69742565855395]
k-Nearest-Neighbor Machine Translation (kNN-MT)は、最近、ニューラルネットワーク翻訳(NMT)におけるドメイン適応のための非パラメトリックソリューションとして提案されている。
論文 参考訳(メタデータ) (2022-04-13T05:46:31Z) - Non-Parametric Unsupervised Domain Adaptation for Neural Machine
Translation [61.27321597981737]
$k$NN-MTは、トレーニング済みニューラルネットワーク翻訳(NMT)モデルとドメイン固有のトークンレベルである$k$-nearest-neighbor検索を直接組み込むという有望な能力を示している。
対象言語におけるドメイン内単言語文を直接使用して,$k$-nearest-neighbor検索に有効なデータストアを構築する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-14T11:50:01Z) - Domain Adaptation and Multi-Domain Adaptation for Neural Machine
Translation: A Survey [9.645196221785694]
ニューラルマシン翻訳(nmt)モデルのドメイン適応に対するロバストなアプローチに注目した。
特に、システムが複数のドメインから文を翻訳する必要がある場合を検討します。
我々はNMT研究の他の分野に対するドメイン適応とマルチドメイン適応技術の利点を強調した。
論文 参考訳(メタデータ) (2021-04-14T16:21:37Z) - Meta-Curriculum Learning for Domain Adaptation in Neural Machine
Translation [19.973201669851626]
ニューラルマシン翻訳(NMT)における領域適応のための新しいメタカリキュラム学習の提案
メタトレーニング中、NMTはまず各ドメインから同様のカリキュラムを学習し、早期に悪い局所的最適値に陥ることを避ける。
メタキュラクルム学習は,慣れ親しんだドメインと未知のドメインの両方の翻訳性能を向上させることができる。
論文 参考訳(メタデータ) (2021-03-03T08:58:39Z) - Exploiting Neural Query Translation into Cross Lingual Information
Retrieval [49.167049709403166]
既存のCLIRシステムは、高度ニューラルネットワーク翻訳(NMT)ではなく、統計ベースの機械翻訳(SMT)を主に活用している
本稿では,ユーザクリックスルーデータに基づいてクエリ変換ペアを抽出する新しいデータ拡張手法を提案する。
実験結果から,提案手法は強いベースラインよりも高い検索精度が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-26T15:28:19Z) - Iterative Domain-Repaired Back-Translation [50.32925322697343]
本稿では,ドメイン内並列コーパスが少ない,あるいは存在しない,低リソースのドメイン固有翻訳に焦点を当てる。
本稿では,合成バイリンガルデータの翻訳を洗練するためのドメイン・リペアモデルを提案する。
提案手法の有効性を示すため,NMTモデルを特定の領域と一般領域から特定の領域に適応させる実験を行った。
論文 参考訳(メタデータ) (2020-10-06T04:38:09Z) - A Simple Baseline to Semi-Supervised Domain Adaptation for Machine
Translation [73.3550140511458]
State-of-the-art Neural Machine Translation (NMT)システムは、データハングリーであり、教師付きデータを持たない新しいドメインではパフォーマンスが良くない。
NMTの半教師付きドメイン適応シナリオに対する単純だが効果のあるアプローチを提案する。
このアプローチは、言語モデリング、バックトランスレーション、教師付き翻訳の3つのトレーニング目標を通じて、TransformerベースのNMTモデルを反復的にトレーニングする。
論文 参考訳(メタデータ) (2020-01-22T16:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。