論文の概要: Towards Faster k-Nearest-Neighbor Machine Translation
- arxiv url: http://arxiv.org/abs/2312.07419v1
- Date: Tue, 12 Dec 2023 16:41:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 15:15:21.203424
- Title: Towards Faster k-Nearest-Neighbor Machine Translation
- Title(参考訳): k-Nearest-Neighbor機械翻訳の高速化に向けて
- Authors: Xiangyu Shi, Yunlong Liang, Jinan Xu, Yufeng Chen
- Abstract要約: k-nearest-neighbor 機械翻訳アプローチは、トークンをデコードする際に、データストア全体の重い検索オーバーヘッドに悩まされる。
ニューラルネットワークの翻訳モデルとkNNが生成する確率によってトークンが共同で翻訳されるべきかどうかを予測するための,単純で効果的な多層パーセプトロン(MLP)ネットワークを提案する。
- 参考スコア(独自算出の注目度): 56.66038663128903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent works have proven the effectiveness of k-nearest-neighbor machine
translation(a.k.a kNN-MT) approaches to produce remarkable improvement in
cross-domain translations. However, these models suffer from heavy retrieve
overhead on the entire datastore when decoding each token. We observe that
during the decoding phase, about 67% to 84% of tokens are unvaried after
searching over the corpus datastore, which means most of the tokens cause
futile retrievals and introduce unnecessary computational costs by initiating
k-nearest-neighbor searches. We consider this phenomenon is explainable in
linguistics and propose a simple yet effective multi-layer perceptron (MLP)
network to predict whether a token should be translated jointly by the neural
machine translation model and probabilities produced by the kNN or just by the
neural model. The results show that our method succeeds in reducing redundant
retrieval operations and significantly reduces the overhead of kNN retrievals
by up to 53% at the expense of a slight decline in translation quality.
Moreover, our method could work together with all existing kNN-MT systems.
- Abstract(参考訳): 近年の研究では、k-nearest-neighbor 機械翻訳(kNN-MT)アプローチの有効性が証明されている。
しかし、これらのモデルは、各トークンをデコードする際に、データストア全体の検索オーバーヘッドに苦しむ。
復号段階では,コーパスデータストアを検索した時点で約67%~84%のトークンが無害であり,ほとんどのトークンが無駄な検索を引き起こし,k-nearest-neighbor検索を開始することで不要な計算コストが生じる。
我々は,この現象を言語学において説明可能であると考え,トークンがニューラルマシン翻訳モデルとkNNによって生成される確率,あるいはニューラルモデルのみで生成される確率によって共同で翻訳されるべきかどうかを予測する,単純かつ効果的な多層パーセプトロン(MLP)ネットワークを提案する。
その結果,提案手法は冗長検索処理の削減に成功し,翻訳品質の低下を犠牲にして,kn検索のオーバーヘッドを最大53%削減することができた。
さらに,本手法は既存のkNN-MTシステムと併用可能である。
関連論文リスト
- Bridging the Domain Gaps in Context Representations for k-Nearest
Neighbor Neural Machine Translation [57.49095610777317]
$k$-Nearestの隣人機械翻訳($k$NN-MT)は、新しい翻訳ドメインに非パラメトリックに適応する能力によって注目を集めている。
本稿では,元のデータストアを再構築することで,$k$NN-MTのデータストア検索を高速化する手法を提案する。
提案手法は,$k$NN-MTのデータストア検索と翻訳品質を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-05-26T03:04:42Z) - Simple and Scalable Nearest Neighbor Machine Translation [11.996135740547897]
$k$NN-MTは、高速なドメイン適応のための強力なアプローチである。
簡便でスケーラブルな近接機械翻訳フレームワークを提案する。
提案手法は性能劣化のないNMTモデルとしてほぼ90%の高速化を実現する。
論文 参考訳(メタデータ) (2023-02-23T17:28:29Z) - Learning Decoupled Retrieval Representation for Nearest Neighbour Neural
Machine Translation [16.558519886325623]
kNN-MTは、テスト時に単語レベルの表現を取得することで、外部コーパスをうまく組み込む。
本稿では,これら2つのタスクの表現の結合が,きめ細かな検索に準最適であることを強調する。
教師付きコントラスト学習を利用して、元の文脈表現から派生した特徴的表現を学習する。
論文 参考訳(メタデータ) (2022-09-19T03:19:38Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - Efficient Cluster-Based k-Nearest-Neighbor Machine Translation [65.69742565855395]
k-Nearest-Neighbor Machine Translation (kNN-MT)は、最近、ニューラルネットワーク翻訳(NMT)におけるドメイン適応のための非パラメトリックソリューションとして提案されている。
論文 参考訳(メタデータ) (2022-04-13T05:46:31Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。