論文の概要: Fast Nearest Neighbor Machine Translation
- arxiv url: http://arxiv.org/abs/2105.14528v1
- Date: Sun, 30 May 2021 13:10:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 13:08:35.134762
- Title: Fast Nearest Neighbor Machine Translation
- Title(参考訳): 高速近傍機械翻訳
- Authors: Yuxian Meng, Xiaoya Li, Xiayu Zheng, Fei Wu, Xiaofei Sun, Tianwei
Zhang, Jiwei Li
- Abstract要約: $k$NN-MTは、近くの検索のためのデータストアとして参照コーパス全体を使用する。
Fast $k$NN-MTは、近隣の検索のためのはるかに小さなデータストアを構築する。
高速な$k$NN-MTは$k$NN-MTより2次高速で、標準のNTTモデルよりわずか2倍遅い。
- 参考スコア(独自算出の注目度): 30.242943649240328
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Though nearest neighbor Machine Translation ($k$NN-MT)
\cite{khandelwal2020nearest} has proved to introduce significant performance
boosts over standard neural MT systems, it is prohibitively slow since it uses
the entire reference corpus as the datastore for the nearest neighbor search.
This means each step for each beam in the beam search has to search over the
entire reference corpus. $k$NN-MT is thus two-order slower than vanilla MT
models, making it hard to be applied to real-world applications, especially
online services. In this work, we propose Fast $k$NN-MT to address this issue.
Fast $k$NN-MT constructs a significantly smaller datastore for the nearest
neighbor search: for each word in a source sentence, Fast $k$NN-MT first
selects its nearest token-level neighbors, which is limited to tokens that are
the same as the query token. Then at each decoding step, in contrast to using
the entire corpus as the datastore, the search space is limited to target
tokens corresponding to the previously selected reference source tokens. This
strategy avoids search through the whole datastore for nearest neighbors and
drastically improves decoding efficiency. Without loss of performance, Fast
$k$NN-MT is two-order faster than $k$NN-MT, and is only two times slower than
the standard NMT model. Fast $k$NN-MT enables the practical use of $k$NN-MT
systems in real-world MT applications.\footnote{Code is available at
\url{https://github.com/ShannonAI/fast-knn-nmt.}}
- Abstract(参考訳): 近隣のMachine Translation (k$NN-MT) \cite{khandelwal 2020nearest} は、標準的なニューラルMTシステムよりも大幅に性能が向上することが証明されているが、近隣の検索のためのデータストアとして参照コーパス全体を使用するため、明らかに遅い。
つまり、ビーム探索の各ステップは、参照コーパス全体を検索しなければならない。
したがって、$k$NN-MTはバニラMTモデルよりも2桁遅いため、現実世界のアプリケーション、特にオンラインサービスに適用することは困難である。
本稿では,この問題に対処するため,Fast $k$NN-MTを提案する。
ソース文の各ワードに対して、fast $k$nn-mtはまず、クエリトークンと同じトークンに制限された、最も近いトークンレベルの近傍を選択する。
そして、各復号ステップにおいて、コーパス全体をデータストアとして使用するのに対し、検索スペースは、予め選択された参照元トークンに対応するターゲットトークンに制限される。
この戦略は、近隣のデータストア全体の検索を回避し、デコード効率を大幅に改善する。
性能を損なうことなく、Fast $k$NN-MTは$k$NN-MTより2桁高速で、標準のNTTモデルよりわずか2倍遅い。
Fast $k$NN-MT は実世界の MT アプリケーションで$k$NN-MT システムの実用的な利用を可能にし、\footnote{Code は \url{https://github.com/ShannonAI/fast-knn-nmt}} で利用可能である。
関連論文リスト
- Efficient k-Nearest-Neighbor Machine Translation with Dynamic Retrieval [49.825549809652436]
$k$NN-MTはドメイン固有の翻訳知識を保持するために外部データストアを構築する。
適応検索(k$NN-MT-AR)は、$lambda$を動的に推定し、$lambda$が固定しきい値以下であれば$k$NN検索をスキップする。
本稿では,バニラ$k$NN-MTを大幅に拡張した動的検索(k$NN-MT-DR)を提案する。
論文 参考訳(メタデータ) (2024-06-10T07:36:55Z) - Towards Faster k-Nearest-Neighbor Machine Translation [56.66038663128903]
k-nearest-neighbor 機械翻訳アプローチは、トークンをデコードする際に、データストア全体の重い検索オーバーヘッドに悩まされる。
ニューラルネットワークの翻訳モデルとkNNが生成する確率によってトークンが共同で翻訳されるべきかどうかを予測するための,単純で効果的な多層パーセプトロン(MLP)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-12T16:41:29Z) - knn-seq: Efficient, Extensible kNN-MT Framework [11.421689052786467]
k-nearest-neighbor machine translation (kNN-MT)は、デコード中の翻訳例を利用して、事前訓練された機械翻訳(NMT)モデルの翻訳品質を高める。
そのサイズのため、データストアからサンプルの構築と検索の両方に計算コストがかかる。
数十億規模の大規模データストアでも効率的に動作するように設計された研究者や開発者にとって,効率的なkNN-MTフレームワークであるknn-seqを提案する。
論文 参考訳(メタデータ) (2023-10-18T21:56:04Z) - INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - Simple and Scalable Nearest Neighbor Machine Translation [11.996135740547897]
$k$NN-MTは、高速なドメイン適応のための強力なアプローチである。
簡便でスケーラブルな近接機械翻訳フレームワークを提案する。
提案手法は性能劣化のないNMTモデルとしてほぼ90%の高速化を実現する。
論文 参考訳(メタデータ) (2023-02-23T17:28:29Z) - Better Datastore, Better Translation: Generating Datastores from
Pre-Trained Models for Nearest Neural Machine Translation [48.58899349349702]
Nearest Neighbor Machine Translation (kNNMT)は、トークンレベルの近接した近接検索機構を備えた、ニューラルネットワーク翻訳(NMT)の簡易かつ効果的な方法である。
本稿では,kNN-MTにおけるデータストアの事前学習モデルを活用するフレームワークであるPreDを提案する。
論文 参考訳(メタデータ) (2022-12-17T08:34:20Z) - Chunk-based Nearest Neighbor Machine Translation [7.747003493657217]
我々は、単一のトークンではなく、データストアからトークンの塊を検索する、テクスチャンクベースの$k$NN-MTモデルを導入する。
静的ドメイン適応とオンザフライ適応という2つの設定による機械翻訳の実験は、チャンクベースのモデルが、翻訳品質をわずかに低下させるだけで、大幅なスピードアップ(最大4倍)につながることを示している。
論文 参考訳(メタデータ) (2022-05-24T17:39:25Z) - Faster Nearest Neighbor Machine Translation [27.38186214015994]
k$NNベースのニューラルマシン翻訳($k$NN-MT)は、さまざまなMTタスクで最先端の結果を得た。
k$NN-MTの重大な欠点の1つは、データストア全体からクエリ表現に最も近い$k$を識別する非効率性にある。
この問題に対処するために textbfFaster $k$NN-MT を提案する。
論文 参考訳(メタデータ) (2021-12-15T14:21:26Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - Nearest Neighbor Machine Translation [113.96357168879548]
我々は、$k$-nearest-neighbor machine translation(k$NN-MT)を紹介する。
キャッシュされたサンプルの大きなデータストア上で、最も近い隣の分類器でトークンを予測する。
多くの設定で一貫してパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-10-01T22:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。