論文の概要: What Knowledge Is Needed? Towards Explainable Memory for kNN-MT Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2211.04052v1
- Date: Tue, 8 Nov 2022 07:23:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 16:12:06.806000
- Title: What Knowledge Is Needed? Towards Explainable Memory for kNN-MT Domain
Adaptation
- Title(参考訳): 必要な知識は何か?
kNN-MTドメイン適応のための説明可能なメモリを目指して
- Authors: Wenhao Zhu, Shujian Huang, Yunzhe Lv, Xin Zheng, Jiajun Chen
- Abstract要約: kNN-MTは、外部データストアを構築することにより、ドメイン適応のための新しいパラダイムを提供する。
NMTモデルはどのような知識を必要とするのか?
6つの異なるターゲットドメインと2つの言語ペアの実験により、局所的正当性に応じたプルーニングはkNN-MTドメイン適応のための軽量で説明可能なメモリをもたらすことが示された。
- 参考スコア(独自算出の注目度): 45.35907027125192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: kNN-MT presents a new paradigm for domain adaptation by building an external
datastore, which usually saves all target language token occurrences in the
parallel corpus. As a result, the constructed datastore is usually large and
possibly redundant. In this paper, we investigate the interpretability issue of
this approach: what knowledge does the NMT model need? We propose the notion of
local correctness (LAC) as a new angle, which describes the potential
translation correctness for a single entry and for a given neighborhood.
Empirical study shows that our investigation successfully finds the conditions
where the NMT model could easily fail and need related knowledge. Experiments
on six diverse target domains and two language-pairs show that pruning
according to local correctness brings a light and more explainable memory for
kNN-MT domain adaptation.
- Abstract(参考訳): knn-mtは、外部データストアを構築することによって、ドメイン適応のための新しいパラダイムを提示している。
その結果、構築されたデータストアは通常大きく、おそらく冗長である。
本稿では,NMTモデルに必要な知識について,本手法の解釈可能性問題について検討する。
局所的正しさ (lac) の概念を新しい角度として提案し, 1 つの入力とある近傍に対する潜在的な翻訳正しさを記述する。
実験により,NMTモデルが容易に失敗し,関連する知識を必要とする状況が明らかとなった。
6つの異なるターゲットドメインと2つの言語ペアの実験により、局所的正当性に応じたプルーニングはkNN-MTドメイン適応のための軽量で説明可能なメモリをもたらすことが示された。
関連論文リスト
- Bridging the Domain Gaps in Context Representations for k-Nearest
Neighbor Neural Machine Translation [57.49095610777317]
$k$-Nearestの隣人機械翻訳($k$NN-MT)は、新しい翻訳ドメインに非パラメトリックに適応する能力によって注目を集めている。
本稿では,元のデータストアを再構築することで,$k$NN-MTのデータストア検索を高速化する手法を提案する。
提案手法は,$k$NN-MTのデータストア検索と翻訳品質を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-05-26T03:04:42Z) - A Systematic Analysis of Vocabulary and BPE Settings for Optimal
Fine-tuning of NMT: A Case Study of In-domain Translation [0.0]
語彙とSWトークン化の選択は、トレーニングとNMTモデルの微調整の両方に重大な影響を与える。
本研究では、SWトークン化と語彙生成のための異なる戦略と、ドメイン固有モデルを微調整するための最適な設定を明らかにするための究極の目標を比較する。
論文 参考訳(メタデータ) (2023-03-01T18:26:47Z) - Nearest Neighbor Knowledge Distillation for Neural Machine Translation [50.0624778757462]
k-nearest-neighbor machine translation (NN-MT) は機械翻訳タスクにおける最先端の結果の多くを達成している。
NN-KDはベースNMTモデルをトレーニングし、NNの知識を直接学習する。
論文 参考訳(メタデータ) (2022-05-01T14:30:49Z) - DaLC: Domain Adaptation Learning Curve Prediction for Neural Machine
Translation [10.03007605098947]
ニューラルネットワーク翻訳(NMT)モデルのドメイン適応(DA)は、しばしば、ドメイン内の並列データのサンプルに基づいて新しいドメインに適応する訓練済みの一般NMTモデルに依存する。
本稿では,ソース言語におけるドメイン内単言語サンプルに基づいて,DAのパフォーマンスを予測可能なドメイン学習曲線予測(DaLC)モデルを提案する。
論文 参考訳(メタデータ) (2022-04-20T06:57:48Z) - Non-Parametric Unsupervised Domain Adaptation for Neural Machine
Translation [61.27321597981737]
$k$NN-MTは、トレーニング済みニューラルネットワーク翻訳(NMT)モデルとドメイン固有のトークンレベルである$k$-nearest-neighbor検索を直接組み込むという有望な能力を示している。
対象言語におけるドメイン内単言語文を直接使用して,$k$-nearest-neighbor検索に有効なデータストアを構築する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-14T11:50:01Z) - Meta-Curriculum Learning for Domain Adaptation in Neural Machine
Translation [19.973201669851626]
ニューラルマシン翻訳(NMT)における領域適応のための新しいメタカリキュラム学習の提案
メタトレーニング中、NMTはまず各ドメインから同様のカリキュラムを学習し、早期に悪い局所的最適値に陥ることを避ける。
メタキュラクルム学習は,慣れ親しんだドメインと未知のドメインの両方の翻訳性能を向上させることができる。
論文 参考訳(メタデータ) (2021-03-03T08:58:39Z) - FDMT: A Benchmark Dataset for Fine-grained Domain Adaptation in Machine
Translation [53.87731008029645]
機械翻訳(FDMT)における実世界のきめ細かいドメイン適応タスクを提案する。
FDMTデータセットは、自動運転車、AI教育、リアルタイムネットワーク、スマートフォンの4つのサブドメインで構成されている。
この新しい設定で定量的な実験と深い分析を行い、きめ細かいドメイン適応タスクをベンチマークします。
論文 参考訳(メタデータ) (2020-12-31T17:15:09Z) - Transformation Importance with Applications to Cosmology [13.72250424474013]
本稿では,変換空間における特徴に重きを置く新しい手法を提案し,十分に訓練されたモデルにポストホックを適用する。
TRans IMportanceは、シミュレーションデータ上のディープニューラルネットワーク(DNN)を用いた宇宙パラメータ推定問題によって動機付けられている。
論文 参考訳(メタデータ) (2020-03-04T07:50:49Z) - A Simple Baseline to Semi-Supervised Domain Adaptation for Machine
Translation [73.3550140511458]
State-of-the-art Neural Machine Translation (NMT)システムは、データハングリーであり、教師付きデータを持たない新しいドメインではパフォーマンスが良くない。
NMTの半教師付きドメイン適応シナリオに対する単純だが効果のあるアプローチを提案する。
このアプローチは、言語モデリング、バックトランスレーション、教師付き翻訳の3つのトレーニング目標を通じて、TransformerベースのNMTモデルを反復的にトレーニングする。
論文 参考訳(メタデータ) (2020-01-22T16:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。